repo_id stringlengths 21 96 | file_path stringlengths 31 155 | content stringlengths 1 92.9M | __index_level_0__ int64 0 0 |
|---|---|---|---|
rapidsai_public_repos/cuml/cpp/test/sg/experimental/fil | rapidsai_public_repos/cuml/cpp/test/sg/experimental/fil/raft_proto/buffer.cpp | /*
* Copyright (c) 2023, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/experimental/fil/detail/raft_proto/buffer.hpp>
#include <cuml/experimental/fil/detail/raft_proto/cuda_check.hpp>
#include <cuml/experimental/fil/detail/raft_proto/cuda_stream.hpp>
#include <cuml/experimental/fil/detail/raft_proto/device_type.hpp>
#include <cuml/experimental/fil/detail/raft_proto/exceptions.hpp>
#include <gmock/gmock.h>
#include <gtest/gtest.h>
namespace raft_proto {
TEST(Buffer, default_buffer)
{
auto buf = buffer<int>();
EXPECT_EQ(buf.memory_type(), device_type::cpu);
EXPECT_EQ(buf.size(), 0);
EXPECT_EQ(buf.device_index(), 0);
}
TEST(Buffer, device_buffer)
{
auto data = std::vector<int>{1, 2, 3};
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(data.size(), device_type::gpu, 0, cuda_stream{});
test_buffers.emplace_back(data.size(), device_type::gpu, 0);
test_buffers.emplace_back(data.size(), device_type::gpu);
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::gpu);
ASSERT_EQ(buf.size(), data.size());
#ifdef CUML_ENABLE_GPU
ASSERT_NE(buf.data(), nullptr);
auto data_out = std::vector<int>(data.size());
cudaMemcpy(static_cast<void*>(buf.data()),
static_cast<void*>(data.data()),
sizeof(int) * data.size(),
cudaMemcpyHostToDevice);
cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(buf.data()),
sizeof(int) * data.size(),
cudaMemcpyDeviceToHost);
EXPECT_THAT(data_out, testing::ElementsAreArray(data));
#endif
}
}
TEST(Buffer, non_owning_device_buffer)
{
auto data = std::vector<int>{1, 2, 3};
auto* ptr_d = static_cast<int*>(nullptr);
#ifdef CUML_ENABLE_GPU
cudaMalloc(reinterpret_cast<void**>(&ptr_d), sizeof(int) * data.size());
cudaMemcpy(static_cast<void*>(ptr_d),
static_cast<void*>(data.data()),
sizeof(int) * data.size(),
cudaMemcpyHostToDevice);
#endif
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(ptr_d, data.size(), device_type::gpu, 0);
test_buffers.emplace_back(ptr_d, data.size(), device_type::gpu);
#ifdef CUML_ENABLE_GPU
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::gpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_EQ(buf.data(), ptr_d);
auto data_out = std::vector<int>(data.size());
cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(buf.data()),
sizeof(int) * data.size(),
cudaMemcpyDeviceToHost);
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
cudaFree(reinterpret_cast<void*>(ptr_d));
#endif
}
TEST(Buffer, host_buffer)
{
auto data = std::vector<int>{1, 2, 3};
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(data.size(), device_type::cpu, 0, cuda_stream{});
test_buffers.emplace_back(data.size(), device_type::cpu, 0);
test_buffers.emplace_back(data.size(), device_type::cpu);
test_buffers.emplace_back(data.size());
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_NE(buf.data(), nullptr);
std::memcpy(
static_cast<void*>(buf.data()), static_cast<void*>(data.data()), data.size() * sizeof(int));
auto data_out = std::vector<int>(buf.data(), buf.data() + buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
}
TEST(Buffer, host_buffer_from_iters)
{
auto data = std::vector<int>{1, 2, 3};
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(std::begin(data), std::end(data));
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_NE(buf.data(), nullptr);
std::memcpy(
static_cast<void*>(buf.data()), static_cast<void*>(data.data()), data.size() * sizeof(int));
auto data_out = std::vector<int>(buf.data(), buf.data() + buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
}
TEST(Buffer, device_buffer_from_iters)
{
auto data = std::vector<int>{1, 2, 3};
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(std::begin(data), std::end(data), device_type::gpu);
test_buffers.emplace_back(std::begin(data), std::end(data), device_type::gpu, 0);
test_buffers.emplace_back(std::begin(data), std::end(data), device_type::gpu, 0, cuda_stream{});
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::gpu);
ASSERT_EQ(buf.size(), data.size());
#ifdef CUML_ENABLE_GPU
ASSERT_NE(buf.data(), nullptr);
auto data_out = std::vector<int>(data.size());
cudaMemcpy(static_cast<void*>(buf.data()),
static_cast<void*>(data.data()),
sizeof(int) * data.size(),
cudaMemcpyHostToDevice);
cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(buf.data()),
sizeof(int) * data.size(),
cudaMemcpyDeviceToHost);
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
#endif
}
}
TEST(Buffer, non_owning_host_buffer)
{
auto data = std::vector<int>{1, 2, 3};
std::vector<buffer<int>> test_buffers;
test_buffers.emplace_back(data.data(), data.size(), device_type::cpu, 0);
ASSERT_EQ(test_buffers.back().memory_type(), device_type::cpu);
ASSERT_EQ(test_buffers.back().size(), data.size());
ASSERT_EQ(test_buffers.back().data(), data.data());
test_buffers.emplace_back(data.data(), data.size(), device_type::cpu);
ASSERT_EQ(test_buffers.back().memory_type(), device_type::cpu);
ASSERT_EQ(test_buffers.back().size(), data.size());
ASSERT_EQ(test_buffers.back().data(), data.data());
test_buffers.emplace_back(data.data(), data.size());
ASSERT_EQ(test_buffers.back().memory_type(), device_type::cpu);
ASSERT_EQ(test_buffers.back().size(), data.size());
ASSERT_EQ(test_buffers.back().data(), data.data());
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_EQ(buf.data(), data.data());
auto data_out = std::vector<int>(buf.data(), buf.data() + buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
}
TEST(Buffer, copy_buffer)
{
auto data = std::vector<int>{1, 2, 3};
auto orig_buffer = buffer<int>(data.data(), data.size(), device_type::cpu);
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(orig_buffer);
test_buffers.emplace_back(orig_buffer, device_type::cpu);
test_buffers.emplace_back(orig_buffer, device_type::cpu, 0);
test_buffers.emplace_back(orig_buffer, device_type::cpu, 0, cuda_stream{});
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_NE(buf.data(), orig_buffer.data());
auto data_out = std::vector<int>(buf.data(), buf.data() + buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
#ifdef CUML_ENABLE_GPU
auto test_dev_buffers = std::vector<buffer<int>>{};
test_dev_buffers.emplace_back(orig_buffer, device_type::gpu);
test_dev_buffers.emplace_back(orig_buffer, device_type::gpu, 0);
test_dev_buffers.emplace_back(orig_buffer, device_type::gpu, 0, cuda_stream{});
for (auto& dev_buf : test_dev_buffers) {
data_out = std::vector<int>(data.size());
cuda_check(cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(dev_buf.data()),
dev_buf.size() * sizeof(int),
cudaMemcpyDefault));
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
auto test_dev_copies = std::vector<buffer<int>>{};
test_dev_copies.emplace_back(dev_buf, device_type::gpu);
test_dev_copies.emplace_back(dev_buf, device_type::gpu, 0);
test_dev_copies.emplace_back(dev_buf, device_type::gpu, 0, cuda_stream{});
for (auto& copy_buf : test_dev_copies) {
data_out = std::vector<int>(data.size());
cuda_check(cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(copy_buf.data()),
copy_buf.size() * sizeof(int),
cudaMemcpyDefault));
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
auto test_host_buffers = std::vector<buffer<int>>{};
test_host_buffers.emplace_back(dev_buf, device_type::cpu);
test_host_buffers.emplace_back(dev_buf, device_type::cpu, 0);
test_host_buffers.emplace_back(dev_buf, device_type::cpu, 0, cuda_stream{});
for (auto& host_buf : test_host_buffers) {
data_out = std::vector<int>(host_buf.data(), host_buf.data() + host_buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
}
#endif
}
}
TEST(Buffer, move_buffer)
{
auto data = std::vector<int>{1, 2, 3};
auto test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(buffer<int>(data.data(), data.size(), device_type::cpu));
test_buffers.emplace_back(buffer<int>(data.data(), data.size(), device_type::cpu),
device_type::cpu);
test_buffers.emplace_back(
buffer<int>(data.data(), data.size(), device_type::cpu), device_type::cpu, 0);
test_buffers.emplace_back(
buffer<int>(data.data(), data.size(), device_type::cpu), device_type::cpu, 0, cuda_stream{});
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_EQ(buf.data(), data.data());
auto data_out = std::vector<int>(buf.data(), buf.data() + buf.size());
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
#ifdef CUML_ENABLE_GPU
test_buffers = std::vector<buffer<int>>{};
test_buffers.emplace_back(buffer<int>(data.data(), data.size(), device_type::cpu),
device_type::gpu);
test_buffers.emplace_back(
buffer<int>(data.data(), data.size(), device_type::cpu), device_type::gpu, 0);
test_buffers.emplace_back(
buffer<int>(data.data(), data.size(), device_type::cpu), device_type::gpu, 0, cuda_stream{});
for (auto& buf : test_buffers) {
ASSERT_EQ(buf.memory_type(), device_type::gpu);
ASSERT_EQ(buf.size(), data.size());
ASSERT_NE(buf.data(), data.data());
auto data_out = std::vector<int>(buf.size());
cuda_check(cudaMemcpy(static_cast<void*>(data_out.data()),
static_cast<void*>(buf.data()),
buf.size() * sizeof(int),
cudaMemcpyDefault));
EXPECT_THAT(data_out, ::testing::ElementsAreArray(data));
}
#endif
}
TEST(Buffer, move_assignment_buffer)
{
auto data = std::vector<int>{1, 2, 3};
#ifdef CUML_ENABLE_GPU
auto buf = buffer<int>{data.data(), data.size() - 1, device_type::gpu};
#else
auto buf = buffer<int>{data.data(), data.size() - 1, device_type::cpu};
#endif
buf = buffer<int>{data.size(), device_type::cpu};
ASSERT_EQ(buf.memory_type(), device_type::cpu);
ASSERT_EQ(buf.size(), data.size());
}
TEST(Buffer, partial_buffer_copy)
{
auto data1 = std::vector<int>{1, 2, 3, 4, 5};
auto data2 = std::vector<int>{0, 0, 0, 0, 0};
auto expected = std::vector<int>{0, 3, 4, 5, 0};
#ifdef CUML_ENABLE_GPU
auto buf1 =
buffer<int>{buffer<int>{data1.data(), data1.size(), device_type::cpu}, device_type::gpu};
#else
auto buf1 = buffer<int>{data1.data(), data1.size(), device_type::cpu};
#endif
auto buf2 = buffer<int>{data2.data(), data2.size(), device_type::cpu};
copy<true>(buf2, buf1, 1, 2, 3, cuda_stream{});
copy<false>(buf2, buf1, 1, 2, 3, cuda_stream{});
EXPECT_THROW(copy<true>(buf2, buf1, 1, 2, 4, cuda_stream{}), out_of_bounds);
}
TEST(Buffer, buffer_copy_overloads)
{
auto data = std::vector<int>{1, 2, 3};
auto expected = data;
auto orig_host_buffer = buffer<int>(data.data(), data.size(), device_type::cpu);
auto orig_dev_buffer = buffer<int>(orig_host_buffer, device_type::gpu);
auto copy_dev_buffer = buffer<int>(data.size(), device_type::gpu);
// copying host to host
auto data_out = std::vector<int>(data.size());
auto copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_host_buffer);
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
// copying host to host with stream
data_out = std::vector<int>(data.size());
copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_host_buffer, cuda_stream{});
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
// copying host to host with offset
data_out = std::vector<int>(data.size() + 1);
copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_host_buffer, 2, 1, 1, cuda_stream{});
expected = std::vector<int>{0, 0, 2, 0};
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
#ifdef CUML_ENABLE_GPU
// copy device to host
data_out = std::vector<int>(data.size());
copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_dev_buffer);
expected = data;
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
// copy device to host with stream
data_out = std::vector<int>(data.size());
copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_dev_buffer, cuda_stream{});
expected = data;
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
// copy device to host with offset
data_out = std::vector<int>(data.size() + 1);
copy_host_buffer = buffer<int>(data_out.data(), data.size(), device_type::cpu);
copy<true>(copy_host_buffer, orig_dev_buffer, 2, 1, 1, cuda_stream{});
expected = std::vector<int>{0, 0, 2, 0};
EXPECT_THAT(data_out, ::testing::ElementsAreArray(expected));
#endif
}
} // namespace raft_proto
| 0 |
rapidsai_public_repos/cuml/cpp/test/sg/experimental/fil | rapidsai_public_repos/cuml/cpp/test/sg/experimental/fil/raft_proto/buffer.cu | /*
* Copyright (c) 2023, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuda_runtime_api.h>
#include <cuml/experimental/fil/detail/raft_proto/buffer.hpp>
#include <cuml/experimental/fil/detail/raft_proto/cuda_check.hpp>
#include <cuml/experimental/fil/detail/raft_proto/cuda_stream.hpp>
#include <cuml/experimental/fil/detail/raft_proto/device_type.hpp>
#include <gmock/gmock.h>
#include <gtest/gtest.h>
#include <iostream>
namespace raft_proto {
__global__ void check_buffer_access(int* buf)
{
if (buf[0] == 1) { buf[0] = 4; }
if (buf[1] == 2) { buf[1] = 5; }
if (buf[2] == 3) { buf[2] = 6; }
}
TEST(Buffer, device_buffer_access)
{
auto data = std::vector<int>{1, 2, 3};
auto expected = std::vector<int>{4, 5, 6};
auto buf = buffer<int>(
buffer<int>(data.data(), data.size(), device_type::cpu), device_type::gpu, 0, cuda_stream{});
check_buffer_access<<<1, 1>>>(buf.data());
auto data_out = std::vector<int>(expected.size());
auto host_buf = buffer<int>(data_out.data(), data_out.size(), device_type::cpu);
copy<true>(host_buf, buf);
ASSERT_EQ(cudaStreamSynchronize(cuda_stream{}), cudaSuccess);
EXPECT_THAT(data_out, testing::ElementsAreArray(expected));
}
} // namespace raft_proto
| 0 |
rapidsai_public_repos/cuml/cpp/test/sg | rapidsai_public_repos/cuml/cpp/test/sg/genetic/node_test.cpp | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/genetic/node.h>
#include <gtest/gtest.h>
#include <raft/util/cudart_utils.hpp>
namespace cuml {
namespace genetic {
TEST(Genetic, node_test)
{
node feature(1);
ASSERT_EQ(feature.t, node::type::variable);
ASSERT_TRUE(feature.is_terminal());
ASSERT_FALSE(feature.is_nonterminal());
ASSERT_EQ(feature.arity(), 0);
ASSERT_EQ(feature.u.fid, 1);
node constval(0.1f);
ASSERT_EQ(constval.t, node::type::constant);
ASSERT_TRUE(constval.is_terminal());
ASSERT_FALSE(constval.is_nonterminal());
ASSERT_EQ(constval.arity(), 0);
ASSERT_EQ(constval.u.val, 0.1f);
node func1(node::type::add);
ASSERT_EQ(func1.t, node::type::add);
ASSERT_FALSE(func1.is_terminal());
ASSERT_TRUE(func1.is_nonterminal());
ASSERT_EQ(func1.arity(), 2);
ASSERT_EQ(func1.u.fid, node::kInvalidFeatureId);
node func2(node::type::cosh);
ASSERT_EQ(func2.t, node::type::cosh);
ASSERT_FALSE(func2.is_terminal());
ASSERT_TRUE(func2.is_nonterminal());
ASSERT_EQ(func2.arity(), 1);
ASSERT_EQ(func2.u.fid, node::kInvalidFeatureId);
}
TEST(Genetic, node_from_str)
{
ASSERT_EQ(node::from_str("add"), node::type::add);
ASSERT_EQ(node::from_str("tanh"), node::type::tanh);
ASSERT_THROW(node::from_str("bad_type"), raft::exception);
}
TEST(Genetic, node_constants) { ASSERT_EQ(node::kInvalidFeatureId, -1); }
} // namespace genetic
} // namespace cuml
| 0 |
rapidsai_public_repos/cuml/cpp/test/sg | rapidsai_public_repos/cuml/cpp/test/sg/genetic/param_test.cu | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "../../prims/test_utils.h"
#include <cuml/genetic/common.h>
#include <gtest/gtest.h>
namespace cuml {
namespace genetic {
TEST(Genetic, ParamTest)
{
param p;
ASSERT_EQ(p.population_size, 1000);
ASSERT_EQ(p.hall_of_fame, 100);
ASSERT_EQ(p.n_components, 10);
ASSERT_EQ(p.generations, 20);
ASSERT_EQ(p.tournament_size, 20);
ASSERT_EQ(p.stopping_criteria, 0.0f);
ASSERT_EQ(p.const_range[0], -1.0f);
ASSERT_EQ(p.const_range[1], 1.0f);
ASSERT_EQ(p.init_depth[0], 2);
ASSERT_EQ(p.init_depth[1], 6);
ASSERT_EQ(p.init_method, init_method_t::half_and_half);
ASSERT_EQ(p.function_set.size(), 4u);
ASSERT_EQ(p.function_set[0], node::type::add);
ASSERT_EQ(p.function_set[1], node::type::mul);
ASSERT_EQ(p.function_set[2], node::type::div);
ASSERT_EQ(p.function_set[3], node::type::sub);
ASSERT_EQ(p.transformer, transformer_t::sigmoid);
ASSERT_EQ(p.arity_set[2][0], node::type::add);
ASSERT_EQ(p.arity_set[2].size(), 4);
ASSERT_EQ(p.metric, metric_t::mae);
ASSERT_EQ(p.parsimony_coefficient, 0.001f);
ASSERT_EQ(p.p_crossover, 0.9f);
ASSERT_EQ(p.p_subtree_mutation, 0.01f);
ASSERT_EQ(p.p_hoist_mutation, 0.01f);
ASSERT_EQ(p.p_point_mutation, 0.01f);
ASSERT_EQ(p.p_point_replace, 0.05f);
ASSERT_EQ(p.max_samples, 1.0f);
ASSERT_EQ(p.feature_names.size(), 0u);
ASSERT_EQ(p.random_state, 0ull);
}
TEST(Genetic, p_reproduce)
{
param p;
auto ret = p.p_reproduce();
ASSERT_TRUE(MLCommon::match(p.p_reproduce(), 0.07f, MLCommon::CompareApprox<float>(0.0001f)));
}
} // namespace genetic
} // namespace cuml
| 0 |
rapidsai_public_repos/cuml/cpp/test/sg | rapidsai_public_repos/cuml/cpp/test/sg/genetic/program_test.cu | /*
* Copyright (c) 2021-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cmath>
#include <cuml/common/logger.hpp>
#include <cuml/genetic/common.h>
#include <cuml/genetic/node.h>
#include <cuml/genetic/program.h>
#include <gtest/gtest.h>
#include <iostream>
#include <raft/core/handle.hpp>
#include <raft/util/cudart_utils.hpp>
#include <rmm/device_uvector.hpp>
#include <rmm/mr/device/per_device_resource.hpp>
#include <test_utils.h>
#include <vector>
namespace cuml {
namespace genetic {
class GeneticProgramTest : public ::testing::Test {
public:
GeneticProgramTest()
: d_data(0, cudaStream_t(0)),
d_y(0, cudaStream_t(0)),
d_lYpred(0, cudaStream_t(0)),
d_lY(0, cudaStream_t(0)),
d_lunitW(0, cudaStream_t(0)),
d_lW(0, cudaStream_t(0)),
dx2(0, cudaStream_t(0)),
dy2(0, cudaStream_t(0)),
dw2(0, cudaStream_t(0)),
dyp2(0, cudaStream_t(0)),
stream(handle.get_stream())
{
}
protected:
void SetUp() override
{
// Params
hyper_params.population_size = 2;
hyper_params.random_state = 123;
hyper_params.num_features = 3;
// X[0] * X[1] + X[2] + 0.5
h_nodes1.push_back(node(node::type::add));
h_nodes1.push_back(node(node::type::add));
h_nodes1.push_back(node(node::type::mul));
h_nodes1.push_back(node(0));
h_nodes1.push_back(node(1));
h_nodes1.push_back(node(2));
h_nodes1.push_back(node(0.5f));
// 0.5*X[1] - 0.4*X[2]
h_nodes2.push_back(node(node::type::sub));
h_nodes2.push_back(node(node::type::mul));
h_nodes2.push_back(node(0.5f));
h_nodes2.push_back(node(1));
h_nodes2.push_back(node(node::type::mul));
h_nodes2.push_back(node(0.4f));
h_nodes2.push_back(node(2));
// Programs
h_progs.resize(2);
h_progs[0].len = h_nodes1.size();
h_progs[0].nodes = new node[h_progs[0].len];
std::copy(h_nodes1.data(), h_nodes1.data() + h_nodes1.size(), h_progs[0].nodes);
h_progs[1].len = h_nodes2.size();
h_progs[1].nodes = new node[h_progs[1].len];
std::copy(h_nodes2.data(), h_nodes2.data() + h_nodes2.size(), h_progs[1].nodes);
// Loss weights
h_lunitW.resize(250, 1.0f);
// Smaller input
hw2.resize(5, 1.0f);
// Device memory
d_data.resize(75, stream);
d_y.resize(25, stream);
d_lYpred.resize(500, stream);
d_lY.resize(250, stream);
d_lunitW.resize(250, stream);
d_lW.resize(250, stream);
d_nodes1 = (node*)rmm::mr::get_current_device_resource()->allocate(7 * sizeof(node), stream);
d_nodes2 = (node*)rmm::mr::get_current_device_resource()->allocate(7 * sizeof(node), stream);
d_progs =
(program_t)rmm::mr::get_current_device_resource()->allocate(2 * sizeof(program), stream);
RAFT_CUDA_TRY(cudaMemcpyAsync(
d_lYpred.data(), h_lYpred.data(), 500 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(
d_lY.data(), h_lY.data(), 250 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(
d_lunitW.data(), h_lunitW.data(), 250 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(
d_lW.data(), h_lW.data(), 250 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(
d_data.data(), h_data.data(), 75 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(
cudaMemcpyAsync(d_y.data(), h_y.data(), 25 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(
cudaMemcpyAsync(d_nodes1, h_nodes1.data(), 7 * sizeof(node), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(
cudaMemcpyAsync(d_nodes2, h_nodes2.data(), 7 * sizeof(node), cudaMemcpyHostToDevice, stream));
program tmp(h_progs[0]);
delete[] tmp.nodes;
tmp.nodes = d_nodes1;
RAFT_CUDA_TRY(
cudaMemcpyAsync(&d_progs[0], &tmp, sizeof(program), cudaMemcpyHostToDevice, stream));
tmp.nodes = nullptr;
tmp = program(h_progs[1]);
delete[] tmp.nodes;
tmp.nodes = d_nodes2;
RAFT_CUDA_TRY(
cudaMemcpyAsync(&d_progs[1], &tmp, sizeof(program), cudaMemcpyHostToDevice, stream));
tmp.nodes = nullptr;
// Small input
dx2.resize(15, stream);
dy2.resize(5, stream);
dw2.resize(5, stream);
dyp2.resize(10, stream);
RAFT_CUDA_TRY(
cudaMemcpyAsync(dx2.data(), hx2.data(), 15 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(
cudaMemcpyAsync(dy2.data(), hy2.data(), 5 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(
cudaMemcpyAsync(dw2.data(), hw2.data(), 5 * sizeof(float), cudaMemcpyHostToDevice, stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(
dyp2.data(), hyp2.data(), 10 * sizeof(float), cudaMemcpyHostToDevice, stream));
}
void TearDown() override
{
rmm::mr::get_current_device_resource()->deallocate(d_nodes1, 7 * sizeof(node), stream);
rmm::mr::get_current_device_resource()->deallocate(d_nodes2, 7 * sizeof(node), stream);
rmm::mr::get_current_device_resource()->deallocate(d_progs, 2 * sizeof(program), stream);
}
raft::handle_t handle;
cudaStream_t stream;
const int n_cols = 3;
const int n_progs = 2;
const int n_samples = 25;
const int n_samples2 = 5;
const float tolerance = 0.025f; // assuming up to 2.5% tolerance for results(for now)
// 25*3 datapoints generated using numpy
// y = X[0] * X[1] + X[2] + 0.5
std::vector<float> h_data{
-0.50446586, -2.06014071, 0.88514116, -2.3015387, 0.83898341, 1.65980218, -0.87785842,
0.31563495, 0.3190391, 0.53035547, 0.30017032, -0.12289023, -1.10061918, -0.0126646,
2.10025514, 1.13376944, -0.88762896, 0.05080775, -0.34934272, 2.18557541, 0.50249434,
-0.07557171, -0.52817175, -0.6871727, 0.51292982,
-1.44411381, 1.46210794, 0.28558733, 0.86540763, 0.58662319, 0.2344157, -0.17242821,
0.87616892, -0.7612069, -0.26788808, 0.61720311, -0.68372786, 0.58281521, -0.67124613,
0.19091548, -0.38405435, -0.19183555, 1.6924546, -1.1425182, 1.51981682, 0.90159072,
0.48851815, -0.61175641, -0.39675353, 1.25286816,
-1.39649634, -0.24937038, 0.93110208, -1.07296862, -0.20889423, -1.11731035, -1.09989127,
0.16003707, 1.74481176, -0.93576943, 0.12015895, 0.90085595, 0.04221375, -0.84520564,
-0.63699565, -0.3224172, 0.74204416, -0.74715829, -0.35224985, 1.13162939, 1.14472371,
-0.29809284, 1.62434536, -0.69166075, -0.75439794};
std::vector<float> h_y{-0.16799022, -2.76151846, 1.68388718, -2.56473777, 0.78327289,
-0.22822666, -0.44852371, 0.9365866, 2.001957, -0.57784534,
0.80542501, 1.48487942, -0.09924385, -0.33670458, 0.26397558,
-0.2578463, 1.41232295, -0.16116848, 0.54688057, 4.95330364,
2.09776794, 0.16498901, 2.44745782, 0.08097744, 0.3882355};
// Values for loss function tests (250 values each)
std::vector<float> h_lYpred{
0.06298f, 0.81894f, 0.12176f, 0.17104f, 0.12851f, 0.28721f, 0.85043f, 0.68120f, 0.57074f,
0.21796f, 0.96626f, 0.32337f, 0.21887f, 0.80867f, 0.96438f, 0.20052f, 0.28668f, 0.86931f,
0.71421f, 0.85405f, 0.13916f, 0.00316f, 0.59440f, 0.86299f, 0.67019f, 0.54309f, 0.82629f,
0.94563f, 0.01481f, 0.13665f, 0.77081f, 0.58024f, 0.02538f, 0.36610f, 0.13948f, 0.75034f,
0.80435f, 0.27488f, 0.74165f, 0.02921f, 0.51479f, 0.66415f, 0.27380f, 0.85304f, 0.95767f,
0.22758f, 0.38602f, 0.41555f, 0.53783f, 0.48663f, 0.11103f, 0.69397f, 0.21749f, 0.71930f,
0.28976f, 0.50971f, 0.68532f, 0.97518f, 0.71299f, 0.37629f, 0.56444f, 0.42280f, 0.51921f,
0.84366f, 0.30778f, 0.39493f, 0.74007f, 0.18280f, 0.22621f, 0.63083f, 0.46085f, 0.47259f,
0.65442f, 0.25453f, 0.23058f, 0.17460f, 0.30702f, 0.22421f, 0.37237f, 0.36660f, 0.29702f,
0.65276f, 0.30222f, 0.63844f, 0.99909f, 0.55084f, 0.05066f, 0.18914f, 0.36652f, 0.36765f,
0.93901f, 0.13575f, 0.72582f, 0.20223f, 0.06375f, 0.52581f, 0.77119f, 0.12127f, 0.27800f,
0.04008f, 0.01752f, 0.00394f, 0.68973f, 0.91931f, 0.48011f, 0.48363f, 0.09770f, 0.84381f,
0.80244f, 0.42710f, 0.82164f, 0.63239f, 0.08117f, 0.46195f, 0.49832f, 0.05717f, 0.16886f,
0.22311f, 0.45326f, 0.50748f, 0.19089f, 0.78211f, 0.34272f, 0.38456f, 0.64874f, 0.18216f,
0.64757f, 0.26900f, 0.20780f, 0.87067f, 0.16903f, 0.77285f, 0.70580f, 0.54404f, 0.97395f,
0.52550f, 0.81364f, 0.30085f, 0.36754f, 0.42492f, 0.79470f, 0.31590f, 0.26322f, 0.68332f,
0.96523f, 0.31110f, 0.97029f, 0.80217f, 0.77125f, 0.36302f, 0.13444f, 0.28420f, 0.20442f,
0.89692f, 0.50515f, 0.61952f, 0.48237f, 0.35080f, 0.75606f, 0.85438f, 0.70647f, 0.91793f,
0.24037f, 0.72867f, 0.84713f, 0.39838f, 0.49553f, 0.32876f, 0.22610f, 0.86573f, 0.99232f,
0.71321f, 0.30179f, 0.01941f, 0.84838f, 0.58587f, 0.43339f, 0.29490f, 0.07191f, 0.88531f,
0.26896f, 0.36085f, 0.96043f, 0.70679f, 0.39593f, 0.37642f, 0.76078f, 0.63827f, 0.36346f,
0.12755f, 0.07074f, 0.67744f, 0.35042f, 0.30773f, 0.15577f, 0.64096f, 0.05035f, 0.32882f,
0.33640f, 0.54106f, 0.76279f, 0.00414f, 0.17373f, 0.83551f, 0.18176f, 0.91190f, 0.03559f,
0.31992f, 0.86311f, 0.04054f, 0.49714f, 0.53551f, 0.65316f, 0.15681f, 0.80268f, 0.44978f,
0.26365f, 0.37162f, 0.97630f, 0.82863f, 0.73267f, 0.93207f, 0.47129f, 0.70817f, 0.57300f,
0.34240f, 0.89749f, 0.79844f, 0.67992f, 0.72523f, 0.43319f, 0.07310f, 0.61074f, 0.93830f,
0.90822f, 0.08077f, 0.28048f, 0.04549f, 0.44870f, 0.10337f, 0.93911f, 0.13464f, 0.16080f,
0.94620f, 0.15276f, 0.56239f, 0.38684f, 0.12437f, 0.98149f, 0.80650f, 0.44040f, 0.59698f,
0.82197f, 0.91634f, 0.89667f, 0.96333f, 0.21204f, 0.47457f, 0.95737f, 0.08697f, 0.50921f,
0.58647f, 0.71985f, 0.39455f, 0.73240f, 0.04227f, 0.74879f, 0.34403f, 0.94240f, 0.45158f,
0.83860f, 0.51819f, 0.87374f, 0.70416f, 0.52987f, 0.72727f, 0.53649f, 0.74878f, 0.13247f,
0.91358f, 0.61871f, 0.50048f, 0.04681f, 0.56370f, 0.68393f, 0.51947f, 0.85044f, 0.24416f,
0.39354f, 0.33526f, 0.66574f, 0.65638f, 0.15506f, 0.84167f, 0.84663f, 0.92094f, 0.14140f,
0.69364f, 0.40575f, 0.63543f, 0.35074f, 0.68887f, 0.70662f, 0.90424f, 0.09042f, 0.57486f,
0.52239f, 0.40711f, 0.82103f, 0.08674f, 0.14005f, 0.44922f, 0.81244f, 0.99037f, 0.26577f,
0.64744f, 0.25391f, 0.47913f, 0.09676f, 0.26023f, 0.86098f, 0.24472f, 0.15364f, 0.38980f,
0.02943f, 0.59390f, 0.25683f, 0.38976f, 0.90195f, 0.27418f, 0.45255f, 0.74992f, 0.07155f,
0.95425f, 0.77560f, 0.41618f, 0.27963f, 0.32602f, 0.75690f, 0.09356f, 0.73795f, 0.59604f,
0.97534f, 0.27677f, 0.06770f, 0.59517f, 0.64286f, 0.36224f, 0.22017f, 0.83546f, 0.21461f,
0.24793f, 0.08248f, 0.16668f, 0.74429f, 0.66674f, 0.68034f, 0.34710f, 0.82358f, 0.47555f,
0.50109f, 0.09328f, 0.98566f, 0.99481f, 0.41391f, 0.86833f, 0.38645f, 0.49203f, 0.44547f,
0.55391f, 0.87598f, 0.85542f, 0.56283f, 0.61385f, 0.70564f, 0.29067f, 0.91150f, 0.64787f,
0.18255f, 0.03792f, 0.69633f, 0.29029f, 0.31412f, 0.49111f, 0.34615f, 0.43144f, 0.31616f,
0.15405f, 0.44915f, 0.12777f, 0.09491f, 0.26003f, 0.71537f, 0.19450f, 0.91570f, 0.28420f,
0.77892f, 0.53199f, 0.66034f, 0.01978f, 0.35415f, 0.03664f, 0.42675f, 0.41304f, 0.33804f,
0.11290f, 0.89985f, 0.75959f, 0.59417f, 0.53113f, 0.38898f, 0.76259f, 0.83973f, 0.75809f,
0.65900f, 0.55141f, 0.14175f, 0.44740f, 0.95823f, 0.77612f, 0.48749f, 0.74491f, 0.57491f,
0.59119f, 0.26665f, 0.48599f, 0.85947f, 0.46245f, 0.08129f, 0.00825f, 0.29669f, 0.43499f,
0.47998f, 0.60173f, 0.26611f, 0.01223f, 0.81734f, 0.77892f, 0.79022f, 0.01394f, 0.45596f,
0.45259f, 0.32536f, 0.84229f, 0.43612f, 0.30531f, 0.10670f, 0.57758f, 0.65956f, 0.42007f,
0.32166f, 0.10552f, 0.63558f, 0.17990f, 0.50732f, 0.34599f, 0.16603f, 0.26309f, 0.04098f,
0.15997f, 0.79728f, 0.00528f, 0.35510f, 0.24344f, 0.07018f, 0.22062f, 0.92927f, 0.13373f,
0.50955f, 0.11199f, 0.75728f, 0.62117f, 0.18153f, 0.84993f, 0.04677f, 0.13013f, 0.92211f,
0.95474f, 0.88898f, 0.55561f, 0.22625f, 0.78700f, 0.73659f, 0.97613f, 0.02299f, 0.07724f,
0.78942f, 0.02193f, 0.05320f, 0.92053f, 0.35103f, 0.39305f, 0.24208f, 0.08225f, 0.78460f,
0.52144f, 0.32927f, 0.84725f, 0.36106f, 0.80349f};
std::vector<float> h_lY{
0.60960f, 0.61090f, 0.41418f, 0.90827f, 0.76181f, 0.31777f, 0.04096f, 0.27290f, 0.56879f,
0.75461f, 0.73555f, 0.41598f, 0.59506f, 0.08768f, 0.99554f, 0.20613f, 0.13546f, 0.32044f,
0.41057f, 0.38501f, 0.27894f, 0.24027f, 0.91171f, 0.26811f, 0.55595f, 0.71153f, 0.69739f,
0.53411f, 0.78365f, 0.60914f, 0.41856f, 0.61688f, 0.28741f, 0.28708f, 0.37029f, 0.47945f,
0.40612f, 0.75762f, 0.91728f, 0.70406f, 0.26717f, 0.71175f, 0.39243f, 0.35904f, 0.38469f,
0.08664f, 0.38611f, 0.35606f, 0.52801f, 0.96986f, 0.84780f, 0.56942f, 0.41712f, 0.17005f,
0.79105f, 0.74347f, 0.83473f, 0.06303f, 0.37864f, 0.66666f, 0.78153f, 0.11061f, 0.33880f,
0.82412f, 0.47141f, 0.53043f, 0.51184f, 0.34172f, 0.57087f, 0.88349f, 0.32870f, 0.11501f,
0.35460f, 0.23630f, 0.37728f, 0.96120f, 0.19871f, 0.78119f, 0.23860f, 0.70615f, 0.46745f,
0.43392f, 0.49967f, 0.39721f, 0.53185f, 0.27827f, 0.14435f, 0.82008f, 0.43275f, 0.82113f,
0.06428f, 0.53528f, 0.21594f, 0.86172f, 0.41172f, 0.96051f, 0.54487f, 0.01971f, 0.71222f,
0.04258f, 0.36715f, 0.24844f, 0.12494f, 0.34132f, 0.87059f, 0.70216f, 0.33533f, 0.10020f,
0.79337f, 0.26059f, 0.81314f, 0.54342f, 0.79115f, 0.71730f, 0.70860f, 0.00998f, 0.64761f,
0.01206f, 0.53463f, 0.94436f, 0.19639f, 0.23296f, 0.55945f, 0.14070f, 0.57765f, 0.50908f,
0.95720f, 0.95611f, 0.12311f, 0.95382f, 0.23116f, 0.36939f, 0.66395f, 0.76282f, 0.16314f,
0.00186f, 0.77662f, 0.58799f, 0.18155f, 0.10355f, 0.45982f, 0.34359f, 0.59476f, 0.72759f,
0.77310f, 0.50736f, 0.43720f, 0.63624f, 0.84569f, 0.73073f, 0.04179f, 0.64806f, 0.19924f,
0.96082f, 0.06270f, 0.27744f, 0.59384f, 0.07317f, 0.10979f, 0.47857f, 0.60274f, 0.54937f,
0.58563f, 0.45247f, 0.84396f, 0.43945f, 0.47719f, 0.40808f, 0.81152f, 0.48558f, 0.21577f,
0.93935f, 0.08222f, 0.43114f, 0.68239f, 0.78870f, 0.24300f, 0.84829f, 0.44764f, 0.57347f,
0.78353f, 0.30614f, 0.39493f, 0.40320f, 0.72849f, 0.39406f, 0.89363f, 0.33323f, 0.38395f,
0.94783f, 0.46082f, 0.30498f, 0.17110f, 0.14083f, 0.48474f, 0.45024f, 0.92586f, 0.77450f,
0.43503f, 0.45188f, 0.80866f, 0.24937f, 0.34205f, 0.35942f, 0.79689f, 0.77224f, 0.14354f,
0.54387f, 0.50787f, 0.31753f, 0.98414f, 0.03261f, 0.89748f, 0.82350f, 0.60235f, 0.00041f,
0.99696f, 0.39894f, 0.52078f, 0.54421f, 0.33405f, 0.81143f, 0.49764f, 0.44993f, 0.37257f,
0.16238f, 0.81337f, 0.51335f, 0.96118f, 0.98901f, 0.95259f, 0.36557f, 0.24654f, 0.99554f,
0.33408f, 0.01734f, 0.85852f, 0.41286f, 0.67371f, 0.93781f, 0.04977f, 0.17298f, 0.91502f,
0.70144f, 0.97356f, 0.12571f, 0.64375f, 0.10033f, 0.36798f, 0.90001f};
// Unitary weights
std::vector<float> h_lunitW;
// Non-unitary weights
std::vector<float> h_lW{
0.38674f, 0.59870f, 0.36761f, 0.59731f, 0.99057f, 0.24131f, 0.29727f, 0.94112f, 0.78962f,
0.71998f, 0.10983f, 0.33620f, 0.37988f, 0.14344f, 0.37377f, 0.06403f, 0.22877f, 0.21993f,
0.11340f, 0.28554f, 0.45453f, 0.14344f, 0.11715f, 0.23184f, 0.08622f, 0.26746f, 0.49058f,
0.06981f, 0.41885f, 0.04422f, 0.99925f, 0.71709f, 0.11910f, 0.49944f, 0.98116f, 0.66316f,
0.11646f, 0.25202f, 0.93223f, 0.81414f, 0.20446f, 0.23813f, 0.45380f, 0.83618f, 0.95958f,
0.72684f, 0.86808f, 0.96348f, 0.76092f, 0.86071f, 0.44155f, 0.85212f, 0.76185f, 0.51460f,
0.65627f, 0.38269f, 0.08251f, 0.07506f, 0.22281f, 0.05325f, 0.71190f, 0.62834f, 0.19348f,
0.44271f, 0.23677f, 0.81817f, 0.73055f, 0.48816f, 0.57524f, 0.45278f, 0.27998f, 0.35699f,
0.26875f, 0.63546f, 0.50990f, 0.21046f, 0.76892f, 0.74433f, 0.39302f, 0.55071f, 0.24554f,
0.56793f, 0.67852f, 0.43290f, 0.97266f, 0.52475f, 0.88402f, 0.79439f, 0.01496f, 0.46426f,
0.15537f, 0.35364f, 0.42962f, 0.47999f, 0.06357f, 0.78531f, 0.62165f, 0.45226f, 0.84973f,
0.63747f, 0.00593f, 0.31520f, 0.13150f, 0.47776f, 0.56420f, 0.21679f, 0.32107f, 0.62491f,
0.33747f, 0.86599f, 0.82573f, 0.26970f, 0.50087f, 0.86947f, 0.47433f, 0.91848f, 0.19534f,
0.45760f, 0.38407f, 0.18953f, 0.30000f, 0.37964f, 0.42509f, 0.55408f, 0.74500f, 0.44484f,
0.67679f, 0.12214f, 0.68380f, 0.74917f, 0.87429f, 0.04355f, 0.98426f, 0.88845f, 0.88318f,
0.64393f, 0.90849f, 0.87948f, 0.22915f, 0.86887f, 0.58676f, 0.51575f, 0.56549f, 0.41412f,
0.06593f, 0.40484f, 0.72931f, 0.02289f, 0.96391f, 0.61075f, 0.91701f, 0.29698f, 0.37095f,
0.42087f, 0.73251f, 0.93271f, 0.32687f, 0.48981f, 0.01081f, 0.11985f, 0.46962f, 0.02569f,
0.83989f, 0.21767f, 0.82370f, 0.35174f, 0.94939f, 0.46032f, 0.81569f, 0.66635f, 0.07019f,
0.68926f, 0.65628f, 0.19914f, 0.17936f, 0.64540f, 0.09031f, 0.05875f, 0.88790f, 0.83687f,
0.46605f, 0.08537f, 0.49514f, 0.44504f, 0.67687f, 0.28943f, 0.74668f, 0.43207f, 0.70990f,
0.62513f, 0.56137f, 0.94399f, 0.75806f, 0.41840f, 0.38428f, 0.30754f, 0.62633f, 0.23173f,
0.40750f, 0.49968f, 0.05536f, 0.11405f, 0.34185f, 0.36367f, 0.06341f, 0.66834f, 0.42899f,
0.08343f, 0.72266f, 0.33155f, 0.74943f, 0.15387f, 0.02475f, 0.35741f, 0.15806f, 0.35406f,
0.18226f, 0.31042f, 0.36047f, 0.62366f, 0.30036f, 0.66625f, 0.99695f, 0.99472f, 0.06743f,
0.56804f, 0.28185f, 0.77387f, 0.58763f, 0.77824f, 0.03720f, 0.99490f, 0.73720f, 0.93635f,
0.85669f, 0.91634f, 0.26065f, 0.97469f, 0.03867f, 0.52306f, 0.99167f, 0.90332f, 0.88546f,
0.07109f, 0.94168f, 0.10211f, 0.95949f, 0.86314f, 0.59917f, 0.41948f};
// Setup smaller input
std::vector<float> hx2 = {0.06298,
0.96626,
0.13916,
0.77081,
0.51479,
0.81894,
0.32337,
0.00316,
0.58024,
0.66415,
0.12176,
0.21887,
0.59440,
0.02538,
0.27380};
std::vector<float> hy2 = {0.11103, 0.69397, 0.21749, 0.71930, 0.28976};
std::vector<float> hyp2 = {
0.67334, 1.03133, 1.09484, 0.97263, 1.1157, 0.36077, 0.07413, -0.23618, 0.27997, 0.22255};
std::vector<float> hw2;
// Nodes and programs
std::vector<node> h_nodes1;
std::vector<node> h_nodes2;
std::vector<program> h_progs;
// Device ptrs
node* d_nodes1;
node* d_nodes2;
program_t d_progs;
rmm::device_uvector<float> d_data;
rmm::device_uvector<float> d_y;
rmm::device_uvector<float> d_lYpred;
rmm::device_uvector<float> d_lY;
rmm::device_uvector<float> d_lunitW;
rmm::device_uvector<float> d_lW;
rmm::device_uvector<float> dx2;
rmm::device_uvector<float> dy2;
rmm::device_uvector<float> dw2;
rmm::device_uvector<float> dyp2;
param hyper_params;
};
TEST_F(GeneticProgramTest, PearsonCoeff)
{
MLCommon::CompareApproxAbs<float> compApprox(tolerance);
float h_expected_score[2] = {0.09528403f, 0.08269963f};
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::pearson;
// Unitary weights
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Unitary weights - small
h_expected_score[0] = 0.3247632f;
h_expected_score[1] = 0.0796348f;
compute_metric(
handle, n_samples2, n_progs, dy2.data(), dyp2.data(), dw2.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights
h_expected_score[0] = 0.14329584f;
h_expected_score[1] = 0.09064283f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, SpearmanCoeff)
{
MLCommon::CompareApproxAbs<float> compApprox(tolerance);
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::spearman;
// Unitary weights
float h_expected_score[2] = {0.09268333f, 0.07529861f};
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Unitary weights - small
h_expected_score[0] = 0.10000f;
h_expected_score[1] = 0.10000f;
compute_metric(
handle, n_samples2, n_progs, dy2.data(), dyp2.data(), dw2.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights
h_expected_score[0] = 0.14072408f;
h_expected_score[1] = 0.08157397f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, MeanSquareLoss)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::mse;
// Unitary weights
float h_expected_score[2] = {0.14297023, 0.14242104};
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Unitary weights - small
h_expected_score[0] = 0.3892163f;
h_expected_score[1] = 0.1699830f;
compute_metric(
handle, n_samples2, n_progs, dy2.data(), dyp2.data(), dw2.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights
h_expected_score[0] = 0.13842479f;
h_expected_score[1] = 0.14538825f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, MeanAbsoluteLoss)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::mae;
// Unitary weights - big
float h_expected_score[2] = {0.30614017, 0.31275677};
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Unitary weights - small
h_expected_score[0] = 0.571255f;
h_expected_score[1] = 0.365957f;
compute_metric(
handle, n_samples2, n_progs, dy2.data(), dyp2.data(), dw2.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights -big
h_expected_score[0] = 0.29643119f;
h_expected_score[1] = 0.31756123f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, RMSLoss)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::rmse;
// Unitary weights
float h_expected_score[2] = {0.37811404, 0.37738713};
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Unitary weights - small
h_expected_score[0] = 0.6238720f;
h_expected_score[1] = 0.4122899f;
compute_metric(
handle, n_samples2, n_progs, dy2.data(), dyp2.data(), dw2.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights
h_expected_score[0] = 0.37205482f;
h_expected_score[1] = 0.38129811f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, LogLoss)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
float h_score[2] = {0.0f, 0.0f};
rmm::device_uvector<float> d_score(2, stream);
hyper_params.metric = metric_t::logloss;
// Unitary weights
float h_expected_score[2] = {0.72276, 0.724011};
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lunitW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
// Non-unitary weights
h_expected_score[0] = 0.715887f;
h_expected_score[1] = 0.721293f;
compute_metric(
handle, 250, 2, d_lY.data(), d_lYpred.data(), d_lW.data(), d_score.data(), hyper_params);
RAFT_CUDA_TRY(
cudaMemcpyAsync(h_score, d_score.data(), 2 * sizeof(float), cudaMemcpyDeviceToHost, stream));
std::copy(h_score, h_score + 2, std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 2; ++i) {
ASSERT_TRUE(compApprox(h_score[i], h_expected_score[i]));
}
}
TEST_F(GeneticProgramTest, ProgramExecution)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
// Enable debug logging
ML::Logger::get().setLevel(CUML_LEVEL_INFO);
// Allocate memory
std::vector<float> h_ypred(n_progs * n_samples, 0.0f);
rmm::device_uvector<float> d_ypred(n_progs * n_samples, stream);
// Execute programs
execute(handle, d_progs, n_samples, n_progs, d_data.data(), d_ypred.data());
RAFT_CUDA_TRY(cudaMemcpyAsync(h_ypred.data(),
d_ypred.data(),
n_progs * n_samples * sizeof(float),
cudaMemcpyDeviceToHost,
stream));
handle.sync_stream(stream);
// Check results
for (int i = 0; i < n_samples; ++i) {
ASSERT_TRUE(compApprox(h_ypred[i], h_y[i]));
}
for (int i = 0; i < n_samples; ++i) {
ASSERT_TRUE(compApprox(h_ypred[n_samples + i],
0.5 * h_data[n_samples + i] - 0.4 * h_data[2 * n_samples + i]));
}
}
TEST_F(GeneticProgramTest, ProgramFitnessScore)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
std::vector<metric_t> all_metrics = {
metric_t::mae, metric_t::mse, metric_t::rmse, metric_t::pearson, metric_t::spearman};
std::vector<float> hexpscores = {
0.57126, 0.36596, 0.38922, 0.16998, 0.62387, 0.41229, 0.32476, 0.07963, 0.10000, 0.10000};
std::vector<float> hactualscores(10);
rmm::device_uvector<float> dactualscores(10, stream);
// Start execution for all metrics
for (int i = 0; i < 5; ++i) {
hyper_params.metric = all_metrics[i];
find_batched_fitness(handle,
n_progs,
d_progs,
dactualscores.data() + 2 * i,
hyper_params,
n_samples2,
dx2.data(),
dy2.data(),
dw2.data());
handle.sync_stream(stream);
}
RAFT_CUDA_TRY(cudaMemcpyAsync(hactualscores.data(),
dactualscores.data(),
10 * sizeof(float),
cudaMemcpyDeviceToHost,
stream));
std::copy(
hactualscores.begin(), hactualscores.end(), std::ostream_iterator<float>(std::cerr, ";"));
std::cerr << std::endl;
for (int i = 0; i < 10; ++i) {
ASSERT_TRUE(compApprox(std::abs(hactualscores[i]), hexpscores[i]));
}
}
} // namespace genetic
} // namespace cuml
| 0 |
rapidsai_public_repos/cuml/cpp/test/sg | rapidsai_public_repos/cuml/cpp/test/sg/genetic/evolution_test.cu | /*
* Copyright (c) 2021-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <algorithm>
#include <cmath>
#include <cuml/common/logger.hpp>
#include <cuml/genetic/common.h>
#include <cuml/genetic/genetic.h>
#include <cuml/genetic/node.h>
#include <cuml/genetic/program.h>
#include <gtest/gtest.h>
#include <iostream>
#include <raft/core/handle.hpp>
#include <raft/util/cudart_utils.hpp>
#include <rmm/device_uvector.hpp>
#include <rmm/mr/device/per_device_resource.hpp>
#include <test_utils.h>
#include <vector>
namespace cuml {
namespace genetic {
/**
* @brief Tests the training and inference of the symbolic regressor, classifier and transformer
* on y = 0.5X[0] + 0.4 X[1]
*
*/
class GeneticEvolutionTest : public ::testing::Test {
public:
GeneticEvolutionTest()
: d_train(0, cudaStream_t(0)),
d_trainlab(0, cudaStream_t(0)),
d_test(0, cudaStream_t(0)),
d_testlab(0, cudaStream_t(0)),
d_trainwts(0, cudaStream_t(0)),
d_testwts(0, cudaStream_t(0)),
stream(handle.get_stream())
{
}
protected:
void SetUp() override
{
ML::Logger::get().setLevel(CUML_LEVEL_INFO);
// Set training param vals
hyper_params.population_size = 5000;
hyper_params.num_features = n_cols;
hyper_params.random_state = 11;
hyper_params.generations = 20;
hyper_params.stopping_criteria = 0.01;
hyper_params.p_crossover = 0.7;
hyper_params.p_subtree_mutation = 0.1;
hyper_params.p_hoist_mutation = 0.05;
hyper_params.p_point_mutation = 0.1;
hyper_params.parsimony_coefficient = 0.01;
// Initialize weights
h_trainwts.resize(n_tr_rows, 1.0f);
h_testwts.resize(n_tst_rows, 1.0f);
// resize device memory
d_train.resize(n_cols * n_tr_rows, stream);
d_trainlab.resize(n_tr_rows, stream);
d_test.resize(n_cols * n_tst_rows, stream);
d_testlab.resize(n_tst_rows, stream);
d_trainwts.resize(n_tr_rows, stream);
d_testwts.resize(n_tst_rows, stream);
// Memcpy HtoD
RAFT_CUDA_TRY(cudaMemcpyAsync(d_train.data(),
h_train.data(),
n_cols * n_tr_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(d_trainlab.data(),
h_trainlab.data(),
n_tr_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(d_test.data(),
h_test.data(),
n_cols * n_tst_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(d_testlab.data(),
h_testlab.data(),
n_tst_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(d_trainwts.data(),
h_trainwts.data(),
n_tr_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
RAFT_CUDA_TRY(cudaMemcpyAsync(d_testwts.data(),
h_testwts.data(),
n_tst_rows * sizeof(float),
cudaMemcpyHostToDevice,
stream));
}
raft::handle_t handle;
cudaStream_t stream;
param hyper_params;
// Some mini-dataset constants
const int n_tr_rows = 250;
const int n_tst_rows = 50;
const int n_cols = 2;
const float tolerance = 0.025f; // assuming up to 2.5% tolerance for results(for now)
// Contains synthetic Data
// y =
std::vector<float> h_train = {
0.2119566, -0.7221057, 0.9944866, -0.6420138, 0.3243210, -0.8062112, 0.9247920, -0.8267401,
0.2330494, 0.1486086, -0.0957095, 0.1386102, 0.1674080, 0.0356288, 0.4644501, 0.3442579,
0.6560287, 0.2349779, -0.3978628, 0.1793082, -0.1155355, 0.0176618, 0.8318791, 0.7813108,
0.2736598, 0.6475824, -0.3849131, -0.4696701, -0.6907704, 0.2952283, -0.8723270, -0.3355115,
-0.0523054, -0.8182662, 0.5539537, -0.8737933, 0.5849895, -0.2579604, 0.3574578, -0.1654855,
-0.2554073, 0.3591112, 0.9403976, -0.3390219, 0.6517981, 0.6465558, 0.4370021, -0.0079799,
0.2970910, 0.2452746, -0.7523201, -0.0951637, 0.6400041, -0.5386036, 0.4352954, -0.2126355,
0.6203773, 0.7159789, -0.6823127, 0.4670905, -0.4666402, 0.0071169, 0.5038485, -0.5780727,
0.7944591, 0.6328644, 0.1813934, 0.2653100, -0.1671608, 0.8108285, 0.3609906, -0.5820257,
0.0447571, 0.7247062, 0.3546630, 0.5908147, -0.1850210, 0.8889677, 0.4725176, 0.2190818,
0.1944676, -0.1650774, 0.5239485, 0.4871244, 0.8803309, 0.3119077, -0.1502819, 0.2140640,
-0.3925484, 0.1745171, -0.0332719, 0.9880465, 0.5828160, 0.3987538, 0.4770127, -0.4151363,
-0.9899210, 0.7880531, -0.3253276, -0.4564783, -0.9825586, -0.0729553, 0.7512086, 0.3045725,
-0.5038860, -0.9412159, -0.8188231, -0.3728235, 0.2280060, -0.4212141, -0.2424457, -0.5574245,
-0.5845115, 0.7049432, -0.5244312, -0.0405502, -0.2238990, 0.6347900, 0.9998363, 0.3580613,
0.0199144, -0.1971139, 0.8036406, 0.7131155, 0.5613965, 0.3835140, 0.0717551, 0.0463067,
0.5255786, 0.0928743, 0.1386557, -0.7212757, 0.3051646, 0.2635859, -0.5229289, -0.8547997,
0.6653103, -0.1116264, 0.2930650, 0.5135837, 0.7412015, -0.3735900, -0.9826624, -0.6185324,
-0.8464018, -0.4180478, 0.7254488, -0.5188612, -0.3333993, 0.8999060, -0.6015426, -0.6545046,
0.6795465, -0.5157862, 0.4536161, -0.7564244, -0.0614987, 0.9840064, 0.3975551, 0.8684530,
0.6091788, 0.2544823, -0.9745569, -0.1815226, -0.1521985, 0.8436312, -0.9446849, -0.2546227,
0.9108996, -0.2374187, -0.8820541, -0.2937101, 0.2558129, 0.7706293, 0.1066034, -0.7223888,
-0.6807924, -0.5187497, -0.3461997, 0.3319379, -0.5073046, 0.0713026, 0.4598049, -0.9708425,
-0.2323956, 0.3963093, -0.9132538, -0.2047350, 0.1162403, -0.6301352, -0.1114944, -0.4411873,
-0.7517651, 0.9942231, 0.6387486, -0.3516690, 0.2925287, 0.8415794, -0.2203800, 0.1182607,
-0.5032156, 0.4939238, 0.9852490, -0.8617036, -0.8945347, 0.1789286, -0.1909516, 0.2587640,
-0.2992706, 0.6049703, -0.1238372, 0.8297717, -0.3196876, 0.9792059, 0.7898732, 0.8210509,
-0.5545098, -0.5691904, -0.7678227, -0.9643255, -0.1002291, -0.4273028, -0.6697328, -0.3049299,
-0.0368014, 0.4804423, -0.6646156, 0.5903011, -0.1700153, -0.6397213, 0.9845422, -0.5159376,
0.1589690, -0.3279489, -0.1498093, -0.9002322, 0.1960990, 0.3850992, 0.4812583, -0.1506606,
-0.0863564, -0.4061224, -0.3599582, -0.2919797, -0.5094189, 0.7824159, 0.3322580, -0.3275573,
-0.9909980, -0.5806390, 0.4667387, -0.3746538, -0.7436752, 0.5058509, 0.5686203, -0.8828574,
0.2331149, 0.1225447, 0.9276860, -0.2576783, -0.5962995, -0.6098081, -0.0473731, 0.6461973,
-0.8618875, 0.2869696, -0.5910612, 0.2354020, 0.7434812, 0.9635402, -0.7473646, -0.1364276,
0.4180313, 0.1777712, -0.3155821, -0.3896985, -0.5973547, 0.3018475, -0.2226010, 0.6965982,
-0.1711176, 0.4426420, 0.5972827, 0.7491136, 0.5431328, 0.1888770, -0.4517326, 0.7062291,
0.5087549, -0.3582025, -0.4492956, 0.1632529, -0.1689859, 0.9334283, -0.3891996, 0.1138209,
0.7598738, 0.0241726, -0.3133468, -0.0708007, 0.9602417, -0.7650007, -0.6497396, 0.4096349,
-0.7035034, 0.6052362, 0.5920056, -0.4065195, 0.3722862, -0.7039886, -0.2351859, 0.3143256,
-0.8650362, 0.3481469, 0.5242298, 0.2190642, 0.7090682, 0.7368234, 0.3148258, -0.8396302,
-0.8332214, 0.6766308, 0.4428585, 0.5376374, 0.1104256, -0.9560977, 0.8913012, 0.2302127,
-0.7445556, -0.8753514, -0.1434969, 0.7423451, -0.9627953, 0.7919458, -0.8590292, -0.2405730,
0.0733800, -0.1964383, 0.3429065, -0.5199867, -0.6148949, -0.4645573, -0.1036227, 0.1915514,
0.4981042, -0.3142545, -0.1360139, 0.5123143, -0.8319357, 0.2593685, -0.6637208, 0.8695423,
-0.4745009, -0.4598881, 0.2561057, 0.8682946, 0.7572707, -0.2405597, -0.6909520, -0.2329739,
-0.3544887, 0.5916605, -0.5483196, 0.3634111, 0.0485800, 0.1492287, -0.0361141, 0.6510856,
0.9754849, -0.1871928, 0.7787021, -0.6019276, 0.2416331, -0.1160285, 0.8894659, 0.9423820,
-0.7052383, -0.8790381, -0.7129928, 0.5332075, -0.5728216, -0.9184565, 0.0437820, 0.3580015,
-0.7459742, -0.6401960, -0.7465842, -0.0257084, 0.7586666, 0.3472861, 0.3226733, -0.8356623,
0.9038333, 0.9519323, 0.6794367, -0.4118270, -0.1475553, 0.1638173, 0.7039975, 0.0782125,
-0.6468386, -0.4905404, -0.0657285, -0.9094056, -0.1691999, 0.9545628, 0.5260556, 0.0704832,
0.9559255, 0.4109315, 0.0437353, 0.1975988, -0.2173066, 0.4840004, -0.9305912, 0.6281645,
-0.2873839, -0.0092089, -0.7423917, -0.5064726, 0.2959957, 0.3744118, -0.2324660, 0.6419766,
0.0482254, 0.0711853, -0.0668010, -0.6056250, -0.6424942, 0.5091138, -0.7920839, -0.3631541,
0.2925649, 0.8553973, -0.5368195, -0.8043768, 0.6299060, -0.7402435, 0.7831608, -0.4979353,
-0.7786197, 0.1855255, -0.7243119, 0.7581270, 0.7850708, -0.6414960, -0.4423507, -0.4211898,
0.8494025, 0.3603602, -0.3777632, 0.3322407, -0.0483915, -0.8515641, -0.9453503, -0.4536391,
-0.1080792, 0.5246211, 0.2128397, -0.0146389, -0.7508293, -0.0058518, 0.5420505, 0.1439000,
0.1900943, 0.0454271, 0.3117409, 0.1234926, -0.1166942, 0.2856016, 0.8390452, 0.8877837,
0.0886838, -0.7009126, -0.5130350, -0.0999212, 0.3338176, -0.3013774, 0.3526511, 0.9518843,
0.5853393, -0.1422507, -0.9768327, -0.5915277, 0.9691055, 0.4186211, 0.7512146, 0.5220292,
-0.1700221, 0.5423641, 0.5864487, -0.7437551, -0.5076052, -0.8304062, 0.4895252, 0.7349310,
0.7687441, 0.6319372, 0.7462888, 0.2358095};
std::vector<float> h_trainlab = {
-0.7061807, -0.9935827, -1.3077246, -0.3378525, -0.6495246, -2.0123182, 0.0340125, -0.2089733,
-0.8786033, -1.3019919, -1.9427123, -1.9624611, -1.0215918, -0.7701042, -2.3890236, -0.6768685,
-1.5100409, -0.7647975, -0.6509883, -0.9327181, -2.2925701, -1.1547282, -0.0646960, -0.2433849,
-1.3402845, -1.1222004, -1.8060292, -0.5686744, -0.7949885, -0.7014911, -0.4394445, -0.6407220,
-0.7567281, -0.1424980, -0.4449957, -0.0832827, -1.3135824, -0.7259869, -0.6223005, -1.4591261,
-1.5859294, -0.7344378, -0.3131946, -0.8229243, -1.1158352, -0.4810999, -0.6265636, -0.9763480,
-1.3232699, -1.0156538, -0.3958369, -2.3411706, -1.6622960, -0.4680720, -2.0089384, -0.7158608,
-0.3735971, -1.0591518, -0.3007601, -1.9814152, -1.0727452, -0.7844243, -2.3594606, -0.4388914,
-0.1194218, -0.4284076, -0.7608060, -0.7356959, -0.7563467, -1.8871661, -2.3971652, -0.4424445,
-0.7512620, -0.2262175, -0.7759824, -2.5211585, -0.8688839, -0.0325217, -2.0756457, -2.5935947,
-1.1262706, -0.7814806, -2.6152479, -0.5979422, -1.8219779, -1.2011619, -0.9094200, -1.1892029,
-0.6205842, -1.7599165, -1.9918835, -0.7041349, -0.7746859, -0.6861359, -0.5224625, -1.2406723,
-0.1745701, -0.1291239, -2.4182146, -0.5995310, -1.1388247, -0.8812391, -1.1353377, -1.5786207,
-0.5555833, 0.0002464, -0.1457169, -1.1594313, -2.1163798, -1.1098294, -1.4213709, -0.4476795,
-1.5073204, -0.2717116, -0.6787519, -0.8713962, -0.9872876, -0.3698685, 0.0235867, -1.0940261,
-0.8272783, -1.9253905, -0.1709152, -0.6209573, -0.5865176, -0.7986188, -2.1974506, -2.6496017,
-1.9451187, -0.7424771, -1.8817208, -2.2417800, -0.8650095, -0.7006861, -2.0289972, -1.3193644,
-1.8613344, -1.0139089, -0.7310213, -0.5095533, -0.2320652, -2.3944243, 0.0525441, -0.5716605,
-0.0658016, -1.4066644, -0.6430519, -0.5938018, -0.6804599, -0.1180739, -1.7033852, -1.3027941,
-0.6082652, -2.4703887, -0.9920609, -0.3844494, -0.7468968, 0.0337840, -0.7998180, -0.0037226,
-0.5870786, -0.7766853, -0.3147676, -0.7173055, -2.7734269, -0.0547125, -0.4775438, -0.9444610,
-1.4637991, -1.7066195, -0.0135983, -0.6795068, -1.2210661, -0.1762879, -0.9427360, -0.4120364,
-0.6077851, -1.7033054, -1.9354388, -0.6399003, -2.1621227, -1.4899510, -0.5816087, 0.0662278,
-1.7709871, -2.2943379, 0.0671570, -2.2462875, -0.8166682, -1.3488045, -2.3724372, -0.6542480,
-1.6837887, 0.1718501, -0.4232655, -1.9293420, -1.5524519, -0.8903348, -0.8235148, -0.7555137,
-1.2672423, -0.5341824, -0.0800176, -1.8341924, -2.0388451, -1.6274120, -1.0832978, -0.6836474,
-0.7428981, -0.6488642, -2.2992384, -0.3173651, -0.6495681, 0.0820371, -0.2221419, -0.2825119,
-0.4779604, -0.5677801, -0.5407600, 0.1339569, -0.8549058, -0.7177885, -0.4706391, -2.0992089,
-1.7748856, -0.8790807, -0.3359026, -1.0437502, -0.7428065, -0.5449560, 0.2120406, -0.8962944,
-2.9057635, -1.8338823, -0.9476171, 0.0537955, -0.7746540, -0.6021839, -0.9673201, -0.7290961,
-0.7500160, -2.1319913, -1.6356984, -2.4347284, -0.4906021, -0.1930180, -0.7118280, -0.6601136,
0.1714188, -0.4826550};
std::vector<float> h_test = {
0.6506153, -0.2861214, -0.4207479, -0.0879224, 0.6963105, 0.7591472, -0.9145728, 0.3606104,
0.5918564, -0.5548665, -0.4487113, 0.0824032, 0.4425484, -0.9139633, -0.7823172, 0.0768981,
0.0922035, -0.0138858, 0.9646097, 0.2624208, -0.7190498, -0.6117298, -0.8807327, 0.2868101,
-0.8899322, 0.9853774, -0.5898669, 0.6281458, 0.5219784, -0.5437135, -0.2806136, -0.0927834,
-0.2291698, 0.0450774, 0.4253027, 0.6545525, 0.7031374, -0.3601150, 0.0715214, -0.9844534,
-0.8571354, -0.8157709, -0.6361769, -0.5510336, 0.4286138, 0.8863587, -0.7481151, -0.6144726,
-0.7920206, -0.2917536, -0.6506116, -0.4862449, -0.0866336, -0.7439836, 0.3753550, 0.2632956,
-0.2270555, 0.1109649, -0.6320683, 0.0280535, 0.6881603, 0.8163167, 0.1781434, -0.8063828,
0.8032009, -0.6779581, -0.8654890, -0.5322430, 0.3786414, 0.0546245, -0.5542659, 0.6897840,
-0.1039676, -0.0343101, 0.4219748, -0.4535081, 0.7228620, 0.3873561, 0.1427819, -0.2881901,
0.5431166, -0.0090170, -0.8354108, -0.0099369, -0.5904349, 0.2928394, 0.3634137, -0.7485119,
-0.5442900, 0.4072478, -0.4909732, 0.0737537, -0.0973075, -0.0848911, 0.7041450, 0.3288523,
-0.5264588, -0.5135713, 0.5130192, -0.0708379};
std::vector<float> h_testlab = {
-1.6506068, -1.6408135, -0.9171102, -2.2897648, -0.2806881, -0.2297245, -0.4421663, -0.7713085,
-1.6812845, -0.6648566, -0.5840624, -0.8432659, -0.6577426, -1.6213072, -0.2299105, -2.1316719,
-2.6060586, -1.8153329, 0.1657440, -0.8794947, -1.3444440, -0.4118046, -0.3390867, -0.9532273,
0.0358915, -0.6882091, -0.4517245, -0.3681215, -0.6051433, -1.0756192, -0.6731151, -1.0004896,
-2.4808031, -1.0080036, -1.7581659, -0.3644765, -0.2742536, -2.1790992, -1.8354263, 0.2105456,
-0.9973469, -0.2662037, -0.7020552, -0.7884595, -0.6079654, 0.0063403, -1.2439414, -1.3997503,
-0.1228729, -0.9907357
};
std::vector<float> h_trainwts;
std::vector<float> h_testwts;
rmm::device_uvector<float> d_train;
rmm::device_uvector<float> d_trainlab;
rmm::device_uvector<float> d_test;
rmm::device_uvector<float> d_testlab;
rmm::device_uvector<float> d_trainwts;
rmm::device_uvector<float> d_testwts;
};
TEST_F(GeneticEvolutionTest, SymReg)
{
MLCommon::CompareApprox<float> compApprox(tolerance);
program_t final_progs;
final_progs = (program_t)rmm::mr::get_current_device_resource()->allocate(
hyper_params.population_size * sizeof(program), stream);
std::vector<std::vector<program>> history;
history.reserve(hyper_params.generations);
cudaEvent_t start, stop;
RAFT_CUDA_TRY(cudaEventCreate(&start));
RAFT_CUDA_TRY(cudaEventCreate(&stop));
cudaEventRecord(start, stream);
symFit(handle,
d_train.data(),
d_trainlab.data(),
d_trainwts.data(),
n_tr_rows,
n_cols,
hyper_params,
final_progs,
history);
cudaEventRecord(stop, stream);
cudaEventSynchronize(stop);
float training_time;
cudaEventElapsedTime(&training_time, start, stop);
int n_gen = history.size();
std::cout << "Finished training for " << n_gen << " generations." << std::endl;
// Find index of best program
int best_idx = 0;
float opt_fitness = history[n_gen - 1][0].raw_fitness_;
// For all 3 loss functions - min is better
for (int i = 1; i < hyper_params.population_size; ++i) {
if (history[n_gen - 1][i].raw_fitness_ < opt_fitness) {
best_idx = i;
opt_fitness = history[n_gen - 1][i].raw_fitness_;
}
}
std::string eqn = stringify(history[n_gen - 1][best_idx]);
CUML_LOG_DEBUG("Best Index = %d", best_idx);
std::cout << "Raw fitness score on train set is " << history[n_gen - 1][best_idx].raw_fitness_
<< std::endl;
std::cout << "Best AST equation is : " << eqn << std::endl;
// Predict values for test dataset
rmm::device_uvector<float> d_predlabels(n_tst_rows, stream);
cudaEventRecord(start, stream);
cuml::genetic::symRegPredict(
handle, d_test.data(), n_tst_rows, final_progs + best_idx, d_predlabels.data());
std::vector<float> h_predlabels(n_tst_rows, 0.0f);
RAFT_CUDA_TRY(cudaMemcpy(
h_predlabels.data(), d_predlabels.data(), n_tst_rows * sizeof(float), cudaMemcpyDeviceToHost));
cudaEventRecord(stop, stream);
cudaEventSynchronize(stop);
float inference_time;
cudaEventElapsedTime(&inference_time, start, stop);
// deallocate the nodes allocated for the last generation inside SymFit
for (auto i = 0; i < hyper_params.population_size; ++i) {
program tmp = program();
raft::copy(&tmp, final_progs + i, 1, stream);
rmm::mr::get_current_device_resource()->deallocate(tmp.nodes, tmp.len * sizeof(node), stream);
tmp.nodes = nullptr;
}
// deallocate the final programs from device memory
rmm::mr::get_current_device_resource()->deallocate(
final_progs, hyper_params.population_size * sizeof(program), stream);
ASSERT_TRUE(compApprox(history[n_gen - 1][best_idx].raw_fitness_, 0.0036f));
std::cout << "Some Predicted test values:" << std::endl;
std::copy(
h_predlabels.begin(), h_predlabels.begin() + 10, std::ostream_iterator<float>(std::cout, ";"));
std::cout << std::endl;
std::cout << "Some Actual test values:" << std::endl;
std::copy(
h_testlab.begin(), h_testlab.begin() + 10, std::ostream_iterator<float>(std::cout, ";"));
std::cout << std::endl;
std::cout << "Training time = " << training_time << " ms" << std::endl;
std::cout << "Inference time = " << inference_time << " ms" << std::endl;
}
} // namespace genetic
} // namespace cuml
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/knn_api_test.c | /*
* Copyright (c) 2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/neighbors/knn_api.h>
void test_knn()
{
cumlHandle_t handle = 0;
cumlError_t response = CUML_SUCCESS;
// Checking return type at compile time.
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response =
knn_search(handle, NULL, NULL, 1, 2, NULL, 3, NULL, NULL, 4, true, false, 0, 2.0f, false);
}
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/svm_api_test.c | /*
* Copyright (c) 2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/svm/svm_api.h>
void test_svm()
{
cumlHandle_t handle = 0;
cumlError_t response = CUML_SUCCESS;
// Checking return type at compile time.
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlSpSvcFit(handle,
NULL,
0,
1,
NULL,
1.0f,
2.0f,
2,
3,
3.0f,
4,
LINEAR,
5,
6.0f,
7.0f,
NULL,
NULL,
NULL,
NULL,
NULL,
NULL,
NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlDpSvcFit(handle,
NULL,
0,
1,
NULL,
1.0,
2.0,
2,
3,
3.0,
4,
LINEAR,
5,
6.0,
7.0,
NULL,
NULL,
NULL,
NULL,
NULL,
NULL,
NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlSpSvcPredict(
handle, NULL, 0, 1, LINEAR, 2, 3.0f, 4.0f, 5, 6.0f, NULL, NULL, 7, NULL, NULL, 8.0f, 9);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlDpSvcPredict(
handle, NULL, 0, 1, LINEAR, 2, 3.0, 4.0, 5, 6.0, NULL, NULL, 7, NULL, NULL, 8.0, 9);
}
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/README.md | # C-API Test Folder
The purpose of this folder and CMake target is to verify it's possible to build an executable/library using the C-API. Since the C-API is compiled using C++ and `extern "C"`, this verifies there are no additional oversights that would prevent users from consuming the C-API. For example, including any of the C++ standard library headers would not prevent compiling `libcuml.so`, but would cause errors when using that library.
This test works by simply `#include`'ing each of the `*_api.h` header files and calling each method with dummy arguments. This ensures the functions are properly imported into a C application and linked without needing to actually call the methods.
## Adding New Headers or Functions
Any changes to the C-API need to be reflected in these tests. If a new `*_api.h` header is added or a new function appended to existing headers, this folder should be updated to reflect the change.
## Macro Definitions
To help prevent accidentally including the C-API files when compiling `libcuml++.so`, two new defines have been created: `CUML_C_API` and `CUML_CPP_API`. Each is set when compiling their respective libraries and can be used to prevent accidentally including the wrong header files. For example, in `cuml_api.h`, the following section will raise an error during compilation if included into the C++ API:
```cpp
#ifdef CUML_CPP_API
#error \
"This header is only for the C-API and should not be included from the C++ API."
#endif
``` | 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/glm_api_test.c | /*
* Copyright (c) 2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/linear_model/glm_api.h>
#include <cuml/linear_model/qn.h>
void test_glm()
{
cumlHandle_t handle = 0;
cumlError_t response = CUML_SUCCESS;
qn_params pams = {.loss = QN_LOSS_UNKNOWN,
.penalty_l1 = 0,
.penalty_l2 = 1.0,
.grad_tol = 1e-4,
.change_tol = 1e-5,
.max_iter = 1000,
.linesearch_max_iter = 50,
.lbfgs_memory = 5,
.verbose = 0,
.fit_intercept = true,
.penalty_normalized = true};
// Checking return type at compile time.
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlSpQnFit(handle, &pams, NULL, NULL, 0, 1, 2, NULL, NULL, NULL, true);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlDpQnFit(handle, &pams, NULL, NULL, 0, 1, 2, NULL, NULL, NULL, true);
}
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/dbscan_api_test.c | /*
* Copyright (c) 2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/cluster/dbscan_api.h>
void test_dbscan()
{
cumlHandle_t handle = 0;
cumlError_t response = CUML_SUCCESS;
// Checking return type at compile time.
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlSpDbscanFit(handle, NULL, 0, 1, 1.0f, 2, NULL, NULL, 10, 1);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlDpDbscanFit(handle, NULL, 0, 1, 1.0, 2, NULL, NULL, 10, 1);
}
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/c_api/holtwinters_api_test.c | /*
* Copyright (c) 2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <cuml/tsa/holtwinters_api.h>
void test_holtwinters()
{
cumlHandle_t handle = 0;
cumlError_t response = CUML_SUCCESS;
// Checking return type at compile time.
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlHoltWinters_buffer_size(0, 1, 2, NULL, NULL, NULL, NULL, NULL, NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response =
cumlHoltWintersSp_fit(handle, 0, 1, 2, 3, ADDITIVE, 1.0f, NULL, NULL, NULL, NULL, NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response =
cumlHoltWintersDp_fit(handle, 0, 1, 2, 3, ADDITIVE, 1.0f, NULL, NULL, NULL, NULL, NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlHoltWintersSp_forecast(handle, 0, 1, 2, 3, ADDITIVE, NULL, NULL, NULL, NULL);
// NOLINTNEXTLINE(clang-analyzer-deadcode.DeadStores)
response = cumlHoltWintersDp_forecast(handle, 0, 1, 2, 3, ADDITIVE, NULL, NULL, NULL, NULL);
}
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/knn_classify.cu | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "knn_test_helper.cuh"
namespace ML {
namespace KNN {
namespace opg {
template <>
void generate_partitions(float* data,
int* lbls_ptr,
size_t n_rows,
int n_cols,
int n_clusters,
int my_rank,
cudaStream_t stream)
{
Random::make_blobs<float, int>(data,
lbls_ptr,
(int)n_rows,
(int)n_cols,
n_clusters,
allocator,
stream,
true,
nullptr,
nullptr,
1.0,
-10.0,
10.0,
my_rank);
}
class KNNClassifyTest : public ::testing::TestWithParam<KNNParams> {
public:
bool runTest(const KNNParams& params)
{
KNNTestHelper<int> knn_th;
knn_th.generate_data(params);
std::vector<int> n_unique;
for (int i = 0; i < params.n_outputs; i++) {
n_unique.push_back(params.n_classes);
}
std::vector<int*> uniq_labels(params.n_outputs);
for (int i = 0; i < params.n_outputs; i++) {
int nu = n_unique[i];
std::vector<int> ul_h(nu);
for (int j = 0; j < nu; j++) {
ul_h[j] = j;
}
uniq_labels[i] = (int*)knn_th.allocator.get()->allocate(nu * sizeof(int), knn_th.stream);
raft::update_device(uniq_labels[i], ul_h.data(), ul_h.size(), knn_th.stream);
}
/**
* Execute knn_classify()
*/
knn_classify(knn_th.handle,
&(knn_th.out_parts),
&(knn_th.out_i_parts),
&(knn_th.out_d_parts),
nullptr,
knn_th.index_parts,
*(knn_th.idx_desc),
knn_th.query_parts,
*(knn_th.query_desc),
knn_th.y,
uniq_labels,
n_unique,
false,
false,
false,
params.k,
params.batch_size,
true);
knn_th.display_results();
knn_th.release_ressources(params);
int actual = 1;
int expected = 1;
return raft::CompareApprox<int>(1)(actual, expected);
}
};
const std::vector<KNNParams> inputs = {{5, 1, 8, 50, 3, 2, 2, 12}};
typedef KNNClassifyTest KNNClTest;
TEST_P(KNNClTest, Result) { ASSERT_TRUE(runTest(GetParam())); }
INSTANTIATE_TEST_CASE_P(KNNClassifyTest, KNNClTest, ::testing::ValuesIn(inputs));
} // namespace opg
} // namespace KNN
} // namespace ML
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/knn_test_helper.cuh | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "../prims/test_utils.h"
#include "test_opg_utils.h"
#include <cuml/neighbors/knn_mg.hpp>
#include <gtest/gtest.h>
#include <memory>
#include <raft/random/make_blobs.cuh>
#include <raft/comms/mpi_comms.hpp>
#include <raft/linalg/reduce_rows_by_key.cuh>
#include <selection/knn.cuh>
#include <raft/util/cuda_utils.cuh>
namespace ML {
namespace KNN {
namespace opg {
struct KNNParams {
int k;
int n_outputs;
int n_classes;
size_t min_rows;
size_t n_cols;
int n_query_parts;
int n_index_parts;
size_t batch_size;
};
template <typename T>
void generate_partitions(float* data,
T* outputs,
size_t n_rows,
int n_cols,
int n_clusters,
int my_rank,
cudaStream_t stream);
template <typename T>
class KNNTestHelper {
public:
void generate_data(const KNNParams& params)
{
raft::comms::initialize_mpi_comms(&handle, MPI_COMM_WORLD);
const auto& comm = handle.get_comms();
this->stream = handle.get_stream();
int my_rank = comm.get_rank();
int size = comm.get_size();
this->index_parts_per_rank = raft::ceildiv(params.n_index_parts, size);
this->query_parts_per_rank = raft::ceildiv(params.n_query_parts, size);
for (int cur_rank = 0; cur_rank < size; cur_rank++) {
int ippr = this->index_parts_per_rank;
int qppr = this->query_parts_per_rank;
if (cur_rank == size - 1) {
ippr = params.n_index_parts - (cur_rank * this->index_parts_per_rank);
qppr = params.n_query_parts - (cur_rank * this->query_parts_per_rank);
}
for (int part_n = 0; part_n < ippr; part_n++) {
Matrix::RankSizePair* rsp = new Matrix::RankSizePair(cur_rank, params.min_rows);
this->idxPartsToRanks.push_back(rsp);
}
for (int part_n = 0; part_n < qppr; part_n++) {
Matrix::RankSizePair* rsp = new Matrix::RankSizePair(cur_rank, params.min_rows);
this->queryPartsToRanks.push_back(rsp);
}
}
this->idx_desc = new Matrix::PartDescriptor(params.min_rows * params.n_index_parts,
params.n_cols,
this->idxPartsToRanks,
comm.get_rank());
this->query_desc = new Matrix::PartDescriptor(params.min_rows * params.n_query_parts,
params.n_cols,
this->queryPartsToRanks,
comm.get_rank());
if (my_rank == size - 1) {
this->index_parts_per_rank = params.n_index_parts - ((size - 1) * this->index_parts_per_rank);
query_parts_per_rank = params.n_query_parts - ((size - 1) * query_parts_per_rank);
}
this->ind =
(float*)allocator.get()->allocate((this->index_parts_per_rank + this->query_parts_per_rank) *
params.min_rows * params.n_cols * sizeof(float),
stream);
this->out = (T*)allocator.get()->allocate(
(this->index_parts_per_rank + this->query_parts_per_rank) * params.min_rows * sizeof(T),
stream);
generate_partitions<T>(
this->ind,
this->out,
(this->index_parts_per_rank + this->query_parts_per_rank) * params.min_rows,
params.n_cols,
params.n_classes,
my_rank,
this->allocator,
this->stream);
y.resize(this->index_parts_per_rank);
for (int i = 0; i < this->index_parts_per_rank; i++) {
Matrix::Data<float>* i_d = new Matrix::Data<float>(
ind + (i * params.min_rows * params.n_cols), params.min_rows * params.n_cols);
this->index_parts.push_back(i_d);
for (int j = 0; j < params.n_outputs; j++) {
y[i].push_back(this->out + (j * params.min_rows));
}
}
int end_of_idx = this->index_parts_per_rank * params.min_rows * params.n_cols;
for (int i = 0; i < query_parts_per_rank; i++) {
Matrix::Data<float>* query_d = new Matrix::Data<float>(
ind + end_of_idx + (i * params.min_rows * params.n_cols), params.min_rows * params.n_cols);
T* o = (T*)allocator.get()->allocate(params.min_rows * params.n_outputs * sizeof(T*), stream);
float* d =
(float*)allocator.get()->allocate(params.min_rows * params.k * sizeof(float*), stream);
int64_t* ind =
(int64_t*)allocator.get()->allocate(params.min_rows * params.k * sizeof(int64_t), stream);
Matrix::Data<T>* out = new Matrix::Data<T>(o, params.min_rows * params.n_outputs);
Matrix::floatData_t* out_d = new Matrix::floatData_t(d, params.min_rows * params.k);
Matrix::Data<int64_t>* out_i = new Matrix::Data<int64_t>(ind, params.min_rows * params.k);
this->query_parts.push_back(query_d);
this->out_parts.push_back(out);
this->out_d_parts.push_back(out_d);
this->out_i_parts.push_back(out_i);
}
handle.sync_stream(stream);
}
void display_results()
{
handle.sync_stream(stream);
std::cout << "Finished!" << std::endl;
std::cout << raft::arr2Str(out_parts[0]->ptr, 10, "final_out", stream) << std::endl;
std::cout << raft::arr2Str(out_i_parts[0]->ptr, 10, "final_out_I", stream) << std::endl;
std::cout << raft::arr2Str(out_d_parts[0]->ptr, 10, "final_out_D", stream) << std::endl;
}
void release_ressources(const KNNParams& params)
{
delete this->idx_desc;
delete this->query_desc;
allocator.get()->deallocate(this->ind,
(this->index_parts_per_rank + this->query_parts_per_rank) *
params.min_rows * params.n_cols * sizeof(float),
stream);
allocator.get()->deallocate(
this->out,
(this->index_parts_per_rank + this->query_parts_per_rank) * params.min_rows * sizeof(T),
stream);
for (Matrix::floatData_t* fd : query_parts) {
delete fd;
}
for (Matrix::floatData_t* fd : index_parts) {
delete fd;
}
for (Matrix::Data<T>* fd : out_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(T), stream);
delete fd;
}
for (Matrix::Data<int64_t>* fd : out_i_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(int64_t), stream);
delete fd;
}
for (Matrix::floatData_t* fd : out_d_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(float), stream);
delete fd;
}
for (Matrix::RankSizePair* rsp : this->queryPartsToRanks) {
delete rsp;
}
for (Matrix::RankSizePair* rsp : this->idxPartsToRanks) {
delete rsp;
}
}
raft::handle_t handle;
std::vector<Matrix::Data<T>*> out_parts;
std::vector<Matrix::Data<int64_t>*> out_i_parts;
std::vector<Matrix::floatData_t*> out_d_parts;
std::vector<Matrix::floatData_t*> index_parts;
Matrix::PartDescriptor* idx_desc;
std::vector<Matrix::floatData_t*> query_parts;
Matrix::PartDescriptor* query_desc;
std::vector < std::vector<T*> y;
cudaStream_t stream = 0;
private:
int index_parts_per_rank;
int query_parts_per_rank;
std::vector<Matrix::RankSizePair*> idxPartsToRanks;
std::vector<Matrix::RankSizePair*> queryPartsToRanks;
float* ind;
T* out;
};
} // namespace opg
} // namespace KNN
} // namespace ML
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/test_opg_utils.h | /*
* Copyright (c) 2019-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#pragma once
#include <gtest/gtest.h>
#include <mpi.h>
#include <raft/util/cuda_utils.cuh>
namespace MLCommon {
namespace Test {
namespace opg {
/**
*
* @brief Testing environment to handle googletest runs
* @note Inspired from:
* http://www.parresianz.com/mpi/c++/mpi-unit-testing-googletests-cmake/
*/
class MPIEnvironment : public ::testing::Environment {
public:
void SetUp()
{
MPI_Init(NULL, NULL);
int rank, size;
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
int nGpus;
RAFT_CUDA_TRY(cudaGetDeviceCount(&nGpus));
ASSERT(
nGpus >= size, "Number of GPUs are lesser than MPI ranks! ngpus=%d, nranks=%d", nGpus, size);
RAFT_CUDA_TRY(cudaSetDevice(rank));
}
void TearDown() { MPI_Finalize(); }
};
}; // end namespace opg
}; // end namespace Test
}; // end namespace MLCommon
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/knn_regress.cu | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "knn_test_helper.cuh"
namespace ML {
namespace KNN {
namespace opg {
template <>
void generate_partitions(float* data,
float* outputs,
size_t n_rows,
int n_cols,
int n_clusters,
int my_rank,
cudaStream_t stream)
{
Random::make_blobs<float, int>(data,
(int*)outputs,
(int)n_rows,
(int)n_cols,
n_clusters,
stream,
true,
nullptr,
nullptr,
1.0,
-10.0,
10.0,
my_rank);
raft::linalg::convert_array(outputs, (int*)outputs, n_rows, stream);
}
class KNNRegressTest : public ::testing::TestWithParam<KNNParams> {
public:
bool runTest(const KNNParams& params)
{
KNNTestHelper<float> knn_th;
knn_th.generate_data(params);
/**
* Execute knn_regress()
*/
knn_regress(knn_th.handle,
&(knn_th.out_parts),
&(knn_th.out_i_parts),
&(knn_th.out_d_parts),
knn_th.index_parts,
*(knn_th.idx_desc),
knn_th.query_parts,
*(knn_th.query_desc),
knn_th.y,
false,
false,
params.k,
params.n_outputs,
params.batch_size,
true);
knn_th.display_results();
knn_th.release_ressources(params);
int actual = 1;
int expected = 1;
return raft::CompareApprox<int>(1)(actual, expected);
}
};
const std::vector<KNNParams> inputs = {{5, 1, 8, 50, 3, 2, 2, 12}};
typedef KNNRegressTest KNNReTest;
TEST_P(KNNReTest, Result) { ASSERT_TRUE(runTest(GetParam())); }
INSTANTIATE_TEST_CASE_P(KNNRegressTest, KNNReTest, ::testing::ValuesIn(inputs));
} // namespace opg
} // namespace KNN
} // namespace ML
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/knn.cu | /*
* Copyright (c) 2020-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "../prims/test_utils.h"
#include "test_opg_utils.h"
#include <cuml/neighbors/knn_mg.hpp>
#include <gtest/gtest.h>
#include <memory>
#include <raft/random/make_blobs.cuh>
#include <raft/comms/mpi_comms.hpp>
#include <raft/util/cuda_utils.cuh>
#include <rmm/mr/device/per_device_resource.hpp>
namespace ML {
namespace KNN {
namespace opg {
struct KNNParams {
int k;
size_t min_rows;
size_t n_cols;
int n_query_parts;
int n_index_parts;
size_t batch_size;
};
class BruteForceKNNTest : public ::testing::TestWithParam<KNNParams> {
public:
void generate_partition(Matrix::floatData_t* part,
size_t n_rows,
int n_cols,
int n_clusters,
int part_num,
cudaStream_t stream)
{
rmm::device_uvector<int> labels(n_rows, stream);
raft::random::make_blobs<float, int>(
part->ptr, labels.data(), (int)n_rows, (int)n_cols, 5, stream);
}
bool runTest(const KNNParams& params)
{
raft::comms::initialize_mpi_comms(&handle, MPI_COMM_WORLD);
const auto& comm = handle.get_comms();
const auto allocator = rmm::mr::get_current_device_resource();
cudaStream_t stream = handle.get_stream();
int my_rank = comm.get_rank();
int size = comm.get_size();
int index_parts_per_rank = raft::ceildiv(params.n_index_parts, size);
int query_parts_per_rank = raft::ceildiv(params.n_query_parts, size);
std::vector<Matrix::RankSizePair*> idxPartsToRanks;
std::vector<Matrix::RankSizePair*> queryPartsToRanks;
for (int cur_rank = 0; cur_rank < size; cur_rank++) {
int ippr = index_parts_per_rank;
int qppr = query_parts_per_rank;
if (cur_rank == size - 1) {
ippr = params.n_index_parts - (cur_rank * index_parts_per_rank);
qppr = params.n_query_parts - (cur_rank * query_parts_per_rank);
}
std::cout << "Generating " << ippr << " partitions for rank " << cur_rank << std::endl;
std::cout << "min_rows: " << params.min_rows << std::endl;
for (int part_n = 0; part_n < ippr; part_n++) {
Matrix::RankSizePair* rsp = new Matrix::RankSizePair(cur_rank, params.min_rows);
idxPartsToRanks.push_back(rsp);
}
for (int part_n = 0; part_n < qppr; part_n++) {
Matrix::RankSizePair* rsp = new Matrix::RankSizePair(cur_rank, params.min_rows);
queryPartsToRanks.push_back(rsp);
}
}
std::cout << idxPartsToRanks.size() << std::endl;
if (my_rank == size - 1) {
index_parts_per_rank = params.n_index_parts - ((size - 1) * index_parts_per_rank);
query_parts_per_rank = params.n_query_parts - ((size - 1) * query_parts_per_rank);
}
std::cout << "Generating " << index_parts_per_rank << " partitions for rank " << my_rank
<< std::endl;
std::vector<Matrix::floatData_t*> query_parts;
std::vector<Matrix::floatData_t*> out_d_parts;
std::vector<Matrix::Data<int64_t>*> out_i_parts;
for (int i = 0; i < query_parts_per_rank; i++) {
float* q =
(float*)allocator.get()->allocate(params.min_rows * params.n_cols * sizeof(float*), stream);
float* o =
(float*)allocator.get()->allocate(params.min_rows * params.k * sizeof(float*), stream);
int64_t* ind =
(int64_t*)allocator.get()->allocate(params.min_rows * params.k * sizeof(int64_t), stream);
Matrix::Data<float>* query_d = new Matrix::Data<float>(q, params.min_rows * params.n_cols);
Matrix::floatData_t* out_d = new Matrix::floatData_t(o, params.min_rows * params.k);
Matrix::Data<int64_t>* out_i = new Matrix::Data<int64_t>(ind, params.min_rows * params.k);
query_parts.push_back(query_d);
out_d_parts.push_back(out_d);
out_i_parts.push_back(out_i);
generate_partition(query_d, params.min_rows, params.n_cols, 5, i, stream);
}
std::vector<Matrix::floatData_t*> index_parts;
for (int i = 0; i < index_parts_per_rank; i++) {
float* ind =
(float*)allocator.get()->allocate(params.min_rows * params.n_cols * sizeof(float), stream);
Matrix::Data<float>* i_d = new Matrix::Data<float>(ind, params.min_rows * params.n_cols);
index_parts.push_back(i_d);
generate_partition(i_d, params.min_rows, params.n_cols, 5, i, stream);
}
Matrix::PartDescriptor idx_desc(
params.min_rows * params.n_index_parts, params.n_cols, idxPartsToRanks, comm.get_rank());
Matrix::PartDescriptor query_desc(
params.min_rows * params.n_query_parts, params.n_cols, queryPartsToRanks, comm.get_rank());
handle.sync_stream(stream);
/**
* Execute brute_force_knn()
*/
brute_force_knn(handle,
out_i_parts,
out_d_parts,
index_parts,
idx_desc,
query_parts,
query_desc,
params.k,
params.batch_size,
true);
handle.sync_stream(stream);
std::cout << raft::arr2Str(out_i_parts[0]->ptr, 10, "final_out_I", stream) << std::endl;
std::cout << raft::arr2Str(out_d_parts[0]->ptr, 10, "final_out_D", stream) << std::endl;
/**
* Verify expected results
*/
for (Matrix::floatData_t* fd : query_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(float), stream);
delete fd;
}
for (Matrix::floatData_t* fd : index_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(float), stream);
delete fd;
}
for (Matrix::Data<int64_t>* fd : out_i_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(int64_t), stream);
delete fd;
}
for (Matrix::floatData_t* fd : out_d_parts) {
allocator.get()->deallocate(fd->ptr, fd->totalSize * sizeof(float), stream);
delete fd;
}
for (Matrix::RankSizePair* rsp : queryPartsToRanks) {
delete rsp;
}
for (Matrix::RankSizePair* rsp : idxPartsToRanks) {
delete rsp;
}
int actual = 1;
int expected = 1;
return raft::CompareApprox<int>(1)(actual, expected);
}
private:
raft::handle_t handle;
};
const std::vector<KNNParams> inputs = {{5, 50, 3, 5, 5, 12},
{10, 50, 3, 5, 5, 50},
{5, 50, 3, 5, 5, 50},
{5, 500, 5, 5, 5, 50},
{10, 500, 50, 5, 5, 50},
{15, 500, 5, 5, 5, 50},
{5, 500, 10, 5, 5, 50},
{10, 500, 10, 5, 5, 50},
{15, 500, 10, 5, 5, 50}};
typedef BruteForceKNNTest KNNTest;
TEST_P(KNNTest, Result) { ASSERT_TRUE(runTest(GetParam())); }
INSTANTIATE_TEST_CASE_P(BruteForceKNNTest, KNNTest, ::testing::ValuesIn(inputs));
} // namespace opg
} // namespace KNN
} // namespace ML
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/pca.cu | /*
* Copyright (c) 2020-2023, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include "test_opg_utils.h"
#include <cuml/common/logger.hpp>
#include <cuml/decomposition/pca_mg.hpp>
#include <cumlprims/opg/linalg/gemm.hpp>
#include <cumlprims/opg/matrix/matrix_utils.hpp>
#include <gtest/gtest.h>
#include <raft/util/cuda_utils.cuh>
#include <raft/util/cudart_utils.hpp>
#include <test_utils.h>
#include <raft/comms/mpi_comms.hpp>
namespace MLCommon {
namespace Test {
namespace opg {
struct PCAOpgParams {
int M;
int N;
int N_components;
ML::mg_solver algorithm;
std::vector<int> partSizes;
std::vector<int> ranksOwners;
Matrix::Layout layout;
unsigned long long int seed;
};
template <typename T>
class PCAOpgTest : public testing::TestWithParam<PCAOpgParams> {
public:
void SetUp()
{
params = GetParam();
raft::comms::initialize_mpi_comms(&handle, MPI_COMM_WORLD);
// Prepare resource
const raft::comms::comms_t& comm = handle.get_comms();
stream = handle.get_stream();
cublasHandle_t cublasHandle = handle.get_cublas_handle();
myRank = comm.get_rank();
totalRanks = comm.get_size();
raft::random::Rng r(params.seed + myRank);
RAFT_CUBLAS_TRY(cublasSetStream(cublasHandle, stream));
if (myRank == 0) {
std::cout << "Testing PCA of " << params.M << " x " << params.N << " matrix" << std::endl;
}
// Prepare X matrix
std::vector<Matrix::RankSizePair*> totalPartsToRanks;
for (int i = 0; i < params.partSizes.size(); i++) {
Matrix::RankSizePair* rspt =
new Matrix::RankSizePair(params.ranksOwners[i] % totalRanks, params.partSizes[i]);
totalPartsToRanks.push_back(rspt);
}
Matrix::PartDescriptor desc(
params.M, params.N, totalPartsToRanks, comm.get_rank(), params.layout);
std::vector<Matrix::Data<T>*> inParts;
Matrix::opg::allocate(handle, inParts, desc, myRank, stream);
Matrix::opg::randomize(handle, r, inParts, desc, myRank, stream, T(10.0), T(20.0));
handle.sync_stream();
prmsPCA.n_rows = params.M;
prmsPCA.n_cols = params.N;
prmsPCA.n_components = params.N_components;
prmsPCA.whiten = false;
prmsPCA.n_iterations = 100;
prmsPCA.tol = 0.01;
prmsPCA.algorithm = params.algorithm;
rmm::device_uvector<T> components(prmsPCA.n_components * prmsPCA.n_cols, stream);
rmm::device_uvector<T> explained_var(prmsPCA.n_components, stream);
rmm::device_uvector<T> explained_var_ratio(prmsPCA.n_components, stream);
rmm::device_uvector<T> singular_vals(prmsPCA.n_components, stream);
rmm::device_uvector<T> mu(prmsPCA.n_cols, stream);
rmm::device_uvector<T> noise_vars(prmsPCA.n_components, stream);
ML::PCA::opg::fit(handle,
inParts,
desc,
components.data(),
explained_var.data(),
explained_var_ratio.data(),
singular_vals.data(),
mu.data(),
noise_vars.data(),
prmsPCA,
false);
CUML_LOG_DEBUG(
raft::arr2Str(singular_vals.data(), params.N_components, "Singular Vals", stream).c_str());
CUML_LOG_DEBUG(
raft::arr2Str(explained_var.data(), params.N_components, "Explained Variance", stream)
.c_str());
CUML_LOG_DEBUG(
raft::arr2Str(
explained_var_ratio.data(), params.N_components, "Explained Variance Ratio", stream)
.c_str());
CUML_LOG_DEBUG(
raft::arr2Str(components.data(), params.N_components * params.N, "Components", stream)
.c_str());
Matrix::opg::deallocate(handle, inParts, desc, myRank, stream);
}
protected:
PCAOpgParams params;
raft::handle_t handle;
cudaStream_t stream = 0;
int myRank;
int totalRanks;
ML::paramsPCAMG prmsPCA;
};
const std::vector<PCAOpgParams> inputs = {
{20, 4, 2, ML::mg_solver::COV_EIG_JACOBI, {11, 9}, {1, 0}, Matrix::LayoutColMajor, 223548ULL},
{20, 4, 2, ML::mg_solver::COV_EIG_DQ, {11, 9}, {1, 0}, Matrix::LayoutColMajor, 223548ULL},
{20, 4, 2, ML::mg_solver::QR, {11, 9}, {1, 0}, Matrix::LayoutColMajor, 223548ULL}};
typedef PCAOpgTest<float> PCAOpgTestF;
TEST_P(PCAOpgTestF, Result)
{
if (myRank == 0) {
// We should be inverse transforming and checking against the original
// data here. Github reference: https://github.com/rapidsai/cuml/issues/2474
ASSERT_TRUE(true);
}
}
INSTANTIATE_TEST_CASE_P(PCAOpgTest, PCAOpgTestF, ::testing::ValuesIn(inputs));
typedef PCAOpgTest<double> PCAOpgTestD;
TEST_P(PCAOpgTestD, Result)
{
if (myRank == 0) {
// We should be inverse transforming and checking against the original
// data here. Github reference: https://github.com/rapidsai/cuml/issues/2474
ASSERT_TRUE(true);
}
}
INSTANTIATE_TEST_CASE_P(PCAOpgTest, PCAOpgTestD, ::testing::ValuesIn(inputs));
} // end namespace opg
} // end namespace Test
} // end namespace MLCommon
| 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/kmeans_test.cu | /*
* Copyright (c) 2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <gtest/gtest.h>
#include <nccl.h>
#include <raft/comms/std_comms.hpp>
#include <raft/core/handle.hpp>
#include <raft/util/cuda_utils.cuh>
#include <raft/util/cudart_utils.hpp>
#include <rmm/device_uvector.hpp>
#include <stdio.h>
#include <test_utils.h>
#include <vector>
#include <cuml/cluster/kmeans.hpp>
#include <cuml/cluster/kmeans_mg.hpp>
#include <cuml/common/logger.hpp>
#include <cuml/datasets/make_blobs.hpp>
#include <cuml/metrics/metrics.hpp>
#include <thrust/fill.h>
#define NCCLCHECK(cmd) \
do { \
ncclResult_t res = cmd; \
if (res != ncclSuccess) { \
printf("Failed, NCCL error %s:%d '%s'\n", __FILE__, __LINE__, ncclGetErrorString(res)); \
exit(EXIT_FAILURE); \
} \
} while (0)
namespace ML {
using namespace Datasets;
using namespace Metrics;
template <typename T>
struct KmeansInputs {
int n_row;
int n_col;
int n_clusters;
T tol;
bool weighted;
};
template <typename T>
class KmeansTest : public ::testing::TestWithParam<KmeansInputs<T>> {
protected:
KmeansTest()
: stream(handle.get_stream()),
d_labels(0, stream),
d_labels_ref(0, stream),
d_centroids(0, stream),
d_sample_weight(0, stream)
{
}
void basicTest()
{
testparams = ::testing::TestWithParam<KmeansInputs<T>>::GetParam();
ncclComm_t nccl_comm;
NCCLCHECK(ncclCommInitAll(&nccl_comm, 1, {0}));
raft::comms::build_comms_nccl_only(&handle, nccl_comm, 1, 0);
int n_samples = testparams.n_row;
int n_features = testparams.n_col;
params.n_clusters = testparams.n_clusters;
params.tol = testparams.tol;
params.n_init = 5;
params.rng_state.seed = 1;
params.oversampling_factor = 1;
auto stream = handle.get_stream();
rmm::device_uvector<T> X(n_samples * n_features, stream);
rmm::device_uvector<int> labels(n_samples, stream);
make_blobs(handle,
X.data(),
labels.data(),
n_samples,
n_features,
params.n_clusters,
true,
nullptr,
nullptr,
1.0,
false,
-10.0f,
10.0f,
1234ULL);
d_labels.resize(n_samples, stream);
d_labels_ref.resize(n_samples, stream);
d_centroids.resize(params.n_clusters * n_features, stream);
T* d_sample_weight_ptr = nullptr;
if (testparams.weighted) {
d_sample_weight.resize(n_samples, stream);
d_sample_weight_ptr = d_sample_weight.data();
thrust::fill(
thrust::cuda::par.on(stream), d_sample_weight_ptr, d_sample_weight_ptr + n_samples, 1);
}
raft::copy(d_labels_ref.data(), labels.data(), n_samples, stream);
handle.sync_stream(stream);
T inertia = 0;
int n_iter = 0;
ML::kmeans::opg::fit(handle,
params,
X.data(),
n_samples,
n_features,
d_sample_weight_ptr,
d_centroids.data(),
inertia,
n_iter);
kmeans::predict(handle,
params,
d_centroids.data(),
X.data(),
n_samples,
n_features,
d_sample_weight_ptr,
true,
d_labels.data(),
inertia);
score = adjusted_rand_index(handle, d_labels_ref.data(), d_labels.data(), n_samples);
handle.sync_stream(stream);
if (score < 0.99) {
std::stringstream ss;
ss << "Expected: " << raft::arr2Str(d_labels_ref.data(), 25, "d_labels_ref", stream);
CUML_LOG_WARN(ss.str().c_str());
ss.str(std::string());
ss << "Actual: " << raft::arr2Str(d_labels.data(), 25, "d_labels", stream);
CUML_LOG_WARN(ss.str().c_str());
CUML_LOG_WARN("Score = %lf", score);
}
ncclCommDestroy(nccl_comm);
}
void SetUp() override { basicTest(); }
protected:
raft::handle_t handle;
cudaStream_t stream;
KmeansInputs<T> testparams;
rmm::device_uvector<int> d_labels;
rmm::device_uvector<int> d_labels_ref;
rmm::device_uvector<T> d_centroids;
rmm::device_uvector<T> d_sample_weight;
double score;
ML::kmeans::KMeansParams params;
};
const std::vector<KmeansInputs<float>> inputsf2 = {{1000, 32, 5, 0.0001, true},
{1000, 32, 5, 0.0001, false},
{1000, 100, 20, 0.0001, true},
{1000, 100, 20, 0.0001, false},
{10000, 32, 10, 0.0001, true},
{10000, 32, 10, 0.0001, false},
{10000, 100, 50, 0.0001, true},
{10000, 100, 50, 0.0001, false}};
const std::vector<KmeansInputs<double>> inputsd2 = {{1000, 32, 5, 0.0001, true},
{1000, 32, 5, 0.0001, false},
{1000, 100, 20, 0.0001, true},
{1000, 100, 20, 0.0001, false},
{10000, 32, 10, 0.0001, true},
{10000, 32, 10, 0.0001, false},
{10000, 100, 50, 0.0001, true},
{10000, 100, 50, 0.0001, false}};
typedef KmeansTest<float> KmeansTestF;
TEST_P(KmeansTestF, Result) { ASSERT_TRUE(score >= 0.99); }
typedef KmeansTest<double> KmeansTestD;
TEST_P(KmeansTestD, Result) { ASSERT_TRUE(score >= 0.99); }
INSTANTIATE_TEST_CASE_P(KmeansTests, KmeansTestF, ::testing::ValuesIn(inputsf2));
INSTANTIATE_TEST_CASE_P(KmeansTests, KmeansTestD, ::testing::ValuesIn(inputsd2));
} // end namespace ML | 0 |
rapidsai_public_repos/cuml/cpp/test | rapidsai_public_repos/cuml/cpp/test/mg/main.cu | /*
* Copyright (c) 2019-2021, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <gtest/gtest.h>
#include "test_opg_utils.h"
int main(int argc, char** argv)
{
::testing::InitGoogleTest(&argc, argv);
::testing::AddGlobalTestEnvironment(new MLCommon::Test::opg::MPIEnvironment());
return RUN_ALL_TESTS();
}
| 0 |
rapidsai_public_repos/cuml/cpp | rapidsai_public_repos/cuml/cpp/examples/CMakeLists.txt | #
# Copyright (c) 2019-2021, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
add_subdirectory(kmeans)
add_subdirectory(dbscan)
add_subdirectory(symreg)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/symreg/prepare_input.py | # Copyright (c) 2021, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
from sklearn.model_selection import train_test_split
from cuml.internals.safe_imports import cpu_only_import
np = cpu_only_import('numpy')
rng = np.random.RandomState(seed=2021)
# Training samples
X_train = rng.uniform(-1, 1, 500).reshape(250, 2)
y_train = X_train[:, 0]**2 - X_train[:, 1]**2 + X_train[:, 1] - 1
# Testing samples
X_test = rng.uniform(-1, 1, 100).reshape(50, 2)
y_test = X_test[:, 0]**2 - X_test[:, 1]**2 + X_test[:, 1] - 1
print("Training set has n_rows=%d n_cols=%d" % (X_train.shape))
print("Test set has n_rows=%d n_cols=%d" % (X_test.shape))
train_data = "train_data.txt"
test_data = "test_data.txt"
train_labels = "train_labels.txt"
test_labels = "test_labels.txt"
# Save all datasets in col-major format
np.savetxt(train_data, X_train.T, fmt='%.7f')
np.savetxt(test_data, X_test.T, fmt='%.7f')
np.savetxt(train_labels, y_train, fmt='%.7f')
np.savetxt(test_labels, y_test, fmt='%.7f')
print("Wrote %d values to %s" % (X_train.size, train_data))
print("Wrote %d values to %s" % (X_test.size, test_data))
print("Wrote %d values to %s" % (y_train.size, train_labels))
print("Wrote %d values to %s" % (y_test.size, test_labels))
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/symreg/CMakeLists_standalone.txt | #
# Copyright (c) 2021-2022, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
cmake_minimum_required(VERSION 3.8 FATAL_ERROR)
include(ExternalProject)
project(symreg_example VERSION 0.1.0 LANGUAGES CXX CUDA )
set(CMAKE_CXX_STANDARD 17)
set(CMAKE_CXX_STANDARD_REQUIRED ON)
find_package(CUDAToolkit)
find_package(cuml)
add_executable(symreg_example symreg_example.cpp)
# Need to set linker language to CUDA to link the CUDA Runtime
set_target_properties(symreg_example PROPERTIES LINKER_LANGUAGE "CUDA")
# Link cuml and cudart
target_link_libraries(symreg_example cuml::cuml++)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/symreg/CMakeLists.txt | #=============================================================================
# Copyright (c) 2021, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#=============================================================================
add_executable(symreg_example symreg_example.cpp)
target_include_directories(symreg_example PRIVATE ${CUML_INCLUDE_DIRECTORIES})
target_link_libraries(symreg_example cuml++)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/symreg/README.md | # symbolic regression
This subfolder contains an example on how perform symbolic regression in cuML (from C++)
There are two `CMakeLists.txt` in this folder:
1. `CMakeLists.txt` (default) which is included when building cuML
2. `CMakeLists_standalone.txt` as an example for a stand alone project linking to `libcuml.so`
## Build
`symreg_example` is built as a part of cuML. To build it as a standalone executable, do
```bash
$ cmake .. -DCUML_LIBRARY_DIR=/path/to/directory/with/libcuml.so -DCUML_INCLUDE_DIR=/path/to/cuml/headers
```
Then build with `make` or `ninja`
```
$ make
Scanning dependencies of target raft
[ 10%] Creating directories for 'raft'
[ 20%] Performing download step (git clone) for 'raft'
Cloning into 'raft'...
[ 30%] Performing update step for 'raft'
[ 40%] No patch step for 'raft'
[ 50%] No configure step for 'raft'
[ 60%] No build step for 'raft'
[ 70%] No install step for 'raft'
[ 80%] Completed 'raft'
[ 80%] Built target raft
Scanning dependencies of target symreg_example
[ 90%] Building CXX object CMakeFiles/symreg_example.dir/symreg_example.cpp.o
[100%] Linking CUDA executable symreg_example
[100%] Built target symreg_example
```
`CMakeLists_standalone.txt` also loads a minimal set of header dependencies(namely [raft](https://github.com/rapidsai/raft) and [cub](https://github.com/NVIDIA/cub)) if they are not detected in the system.
## Run
1. Generate a toy training and test dataset
```
$ python prepare_input.py
Training set has n_rows=250 n_cols=2
Test set has n_rows=50 n_cols=2
Wrote 500 values to train_data.txt
Wrote 100 values to test_data.txt
Wrote 250 values to train_labels.txt
Wrote 50 values to test_labels.txt
```
2. Run the symbolic regressor using the 4 files as inputs. An example query is given below
```bash
$ ./symreg_example -n_cols 2 \
-n_train_rows 250 \
-n_test_rows 50 \
-random_state 21 \
-population_size 4000 \
-generations 20 \
-stopping_criteria 0.01 \
-p_crossover 0.7 \
-p_subtree 0.1 \
-p_hoist 0.05 \
-p_point 0.1 \
-parsimony_coefficient 0.01
```
3. The corresponding output for the above query is given below :
```
Reading input with 250 rows and 2 columns from train_data.txt.
Reading input with 250 rows from train_labels.txt.
Reading input with 50 rows and 2 columns from test_data.txt.
Reading input with 50 rows from test_labels.txt.
***************************************
Allocating device memory...
Allocation time = 0.259072ms
***************************************
Beginning training on given dataset...
Finished training for 4 generations.
Best AST index : 1855
Best AST depth : 3
Best AST length : 13
Best AST equation :( add( sub( mult( X0, X0) , div( X1, X1) ) , sub( X1, mult( X1, X1) ) ) )
Training time = 626.658ms
***************************************
Beginning Inference on Test dataset...
Inference score on test set = 5.29271e-08
Inference time = 0.35248ms
Some Predicted test values:
-1.65061;-1.64081;-0.91711;-2.28976;-0.280688;
Corresponding Actual test values:
-1.65061;-1.64081;-0.91711;-2.28976;-0.280688;
``` | 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/symreg/symreg_example.cpp | /*
* Copyright (c) 2021-2023, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <algorithm>
#include <cmath>
#include <fstream>
#include <iomanip>
#include <iostream>
#include <iterator>
#include <sstream>
#include <vector>
#include <cuml/common/logger.hpp>
#include <cuml/genetic/common.h>
#include <cuml/genetic/genetic.h>
#include <cuml/genetic/program.h>
#include <raft/util/cudart_utils.hpp>
#include <rmm/device_scalar.hpp>
#include <rmm/device_uvector.hpp>
#include <rmm/mr/device/per_device_resource.hpp>
// Namespace alias
namespace cg = cuml::genetic;
#ifndef CUDA_RT_CALL
#define CUDA_RT_CALL(call) \
{ \
cudaError_t cudaStatus = call; \
if (cudaSuccess != cudaStatus) \
fprintf(stderr, \
"ERROR: CUDA RT call \"%s\" in line %d of file %s failed with " \
"%s (%d).\n", \
#call, \
__LINE__, \
__FILE__, \
cudaGetErrorString(cudaStatus), \
cudaStatus); \
}
#endif // CUDA_RT_CALL
template <typename T>
T get_argval(char** begin, char** end, const std::string& arg, const T default_val)
{
T argval = default_val;
char** itr = std::find(begin, end, arg);
if (itr != end && ++itr != end) {
std::istringstream inbuf(*itr);
inbuf >> argval;
}
return argval;
}
template <typename math_t = float>
int parse_col_major(const std::string fname,
std::vector<math_t>& vec,
const int n_rows,
const int n_cols)
{
std::ifstream is(fname);
if (!is.is_open()) {
std::cerr << "ERROR: Could not open file " << fname << std::endl;
return 1;
}
std::istream_iterator<math_t> start(is), end;
vec.reserve(n_rows * n_cols);
vec.assign(start, end);
return 0;
}
int main(int argc, char* argv[])
{
// Training hyper parameters(contains default vals)
cg::param params;
// Cuda Events to track execution time for various components
cudaEvent_t start, stop;
CUDA_RT_CALL(cudaEventCreate(&start));
CUDA_RT_CALL(cudaEventCreate(&stop));
// Process training arguments
const int population_size =
get_argval(argv, argv + argc, "-population_size", params.population_size);
const uint64_t random_state = get_argval(argv, argv + argc, "-random_state", params.random_state);
const int num_generations = get_argval(argv, argv + argc, "-generations", params.generations);
const float stop_criterion =
get_argval(argv, argv + argc, "-stopping_criteria", params.stopping_criteria);
const float p_crossover = get_argval(argv, argv + argc, "-p_crossover", params.p_crossover);
const float p_subtree = get_argval(argv, argv + argc, "-p_subtree", params.p_subtree_mutation);
const float p_hoist = get_argval(argv, argv + argc, "-p_hoist", params.p_hoist_mutation);
const float p_point = get_argval(argv, argv + argc, "-p_point", params.p_point_mutation);
const float p_point_replace =
get_argval(argv, argv + argc, "-p_point_replace", params.p_point_replace);
const float parsimony_coeff =
get_argval(argv, argv + argc, "-parsimony_coeff", params.parsimony_coefficient);
const std::string metric = get_argval(argv,
argv + argc,
"-metric",
std::string("mae")); // mean absolute error is default
// Process dataset specific arguments
const int n_cols = get_argval(argv, argv + argc, "-n_cols", 0);
const int n_train_rows = get_argval(argv, argv + argc, "-n_train_rows", 0);
const int n_test_rows = get_argval(argv, argv + argc, "-n_test_rows", 0);
const std::string fX_train =
get_argval(argv, argv + argc, "-train_data", std::string("train_data.txt"));
const std::string fy_train =
get_argval(argv, argv + argc, "-train_labels", std::string("train_labels.txt"));
const std::string fX_test =
get_argval(argv, argv + argc, "-test_data", std::string("test_data.txt"));
const std::string fy_test =
get_argval(argv, argv + argc, "-test_labels", std::string("test_labels.txt"));
// Optionally accept files containing sample weights - if none are specified, then we consider a
// uniform distribution
const std::string fw_train =
get_argval(argv, argv + argc, "-train_weights", std::string("train_weights.txt"));
const std::string fw_test =
get_argval(argv, argv + argc, "-test_weights", std::string("test_weights.txt"));
std::vector<float> X_train;
std::vector<float> X_test;
std::vector<float> y_train;
std::vector<float> y_test;
std::vector<float> w_train;
std::vector<float> w_test;
// Read input
if (parse_col_major(fX_train, X_train, n_train_rows, n_cols)) return 1;
if (parse_col_major(fX_test, X_test, n_test_rows, n_cols)) return 1;
if (parse_col_major(fy_train, y_train, n_train_rows, 1)) return 1;
if (parse_col_major(fy_test, y_test, n_test_rows, 1)) return 1;
if (parse_col_major(fw_train, w_train, n_train_rows, 1)) {
std::cerr << "Defaulting to uniform training weights" << std::endl;
w_train.resize(n_train_rows, 1.0f);
}
if (parse_col_major(fw_test, w_test, n_test_rows, 1)) {
std::cerr << "Defaulting to uniform test weights" << std::endl;
w_test.resize(n_test_rows, 1.0f);
}
// Check for valid mutation probability distribution
float p_sum = p_crossover + p_hoist + p_point + p_subtree;
if (p_sum >= 1.0f || p_sum <= 0.0f) {
std::cerr << "ERROR: Invalid mutation probabilities provided" << std::endl
<< "Probability sum for crossover, subtree, host and point mutations is " << p_sum
<< std::endl;
return 1;
}
// Check if point_replace < 1.0f
if (p_point_replace > 1.0f || p_point_replace < 0.0f) {
std::cerr << "ERROR: Invalid value for point replacement probability" << std::endl;
return 1;
}
// Set all training parameters
params.num_features = n_cols;
params.population_size = population_size;
params.random_state = random_state;
params.generations = num_generations;
params.stopping_criteria = stop_criterion;
params.p_crossover = p_crossover;
params.p_subtree_mutation = p_subtree;
params.p_hoist_mutation = p_hoist;
params.p_point_mutation = p_point;
params.p_point_replace = p_point_replace;
params.parsimony_coefficient = parsimony_coeff;
// Set training metric
if (metric == "mae") {
params.metric = cg::metric_t::mae;
} else if (metric == "mse") {
params.metric = cg::metric_t::mse;
} else if (metric == "rmse") {
params.metric = cg::metric_t::rmse;
} else {
std::cerr << "ERROR: Invalid metric specified for regression (can only be "
"mae, mse or rmse) "
<< std::endl;
return 1;
}
/* ======================= Begin GPU memory allocation ======================= */
std::cout << "***************************************" << std::endl;
cudaStream_t stream;
raft::handle_t handle{stream};
// Begin recording time
cudaEventRecord(start, stream);
rmm::device_uvector<float> dX_train(n_cols * n_train_rows, stream);
rmm::device_uvector<float> dy_train(n_train_rows, stream);
rmm::device_uvector<float> dw_train(n_train_rows, stream);
rmm::device_uvector<float> dX_test(n_cols * n_test_rows, stream);
rmm::device_uvector<float> dy_test(n_test_rows, stream);
rmm::device_uvector<float> dw_test(n_test_rows, stream);
rmm::device_uvector<float> dy_pred(n_test_rows, stream);
rmm::device_scalar<float> d_score{stream};
cg::program_t d_finalprogs; // pointer to last generation ASTs on device
CUDA_RT_CALL(cudaMemcpyAsync(dX_train.data(),
X_train.data(),
sizeof(float) * dX_train.size(),
cudaMemcpyHostToDevice,
stream));
CUDA_RT_CALL(cudaMemcpyAsync(dy_train.data(),
y_train.data(),
sizeof(float) * dy_train.size(),
cudaMemcpyHostToDevice,
stream));
CUDA_RT_CALL(cudaMemcpyAsync(dw_train.data(),
w_train.data(),
sizeof(float) * dw_train.size(),
cudaMemcpyHostToDevice,
stream));
CUDA_RT_CALL(cudaMemcpyAsync(
dX_test.data(), X_test.data(), sizeof(float) * dX_test.size(), cudaMemcpyHostToDevice, stream));
CUDA_RT_CALL(cudaMemcpyAsync(
dy_test.data(), y_test.data(), sizeof(float) * dy_test.size(), cudaMemcpyHostToDevice, stream));
CUDA_RT_CALL(cudaMemcpyAsync(
dw_test.data(), w_test.data(), sizeof(float) * n_test_rows, cudaMemcpyHostToDevice, stream));
// Initialize AST
auto curr_mr = rmm::mr::get_current_device_resource();
d_finalprogs = static_cast<cg::program_t>(curr_mr->allocate(params.population_size, stream));
std::vector<std::vector<cg::program>> history;
history.reserve(params.generations);
cudaEventRecord(stop, stream);
cudaEventSynchronize(stop);
float alloc_time;
cudaEventElapsedTime(&alloc_time, start, stop);
std::cout << "Allocated device memory in " << std::setw(10) << alloc_time << "ms" << std::endl;
/* ======================= Begin training ======================= */
std::cout << "***************************************" << std::endl;
std::cout << std::setw(30) << "Beginning training for " << std::setw(15) << params.generations
<< " generations" << std::endl;
cudaEventRecord(start, stream);
cg::symFit(handle,
dX_train.data(),
dy_train.data(),
dw_train.data(),
n_train_rows,
n_cols,
params,
d_finalprogs,
history);
cudaEventRecord(stop, stream);
cudaEventSynchronize(stop);
float training_time;
cudaEventElapsedTime(&training_time, start, stop);
int n_gen = params.num_epochs;
std::cout << std::setw(30) << "Convergence achieved in " << std::setw(15) << n_gen
<< " generations." << std::endl;
// Find index of best program
int best_idx = 0;
float opt_fitness = history.back()[0].raw_fitness_;
// For all 3 loss functions - min is better
for (int i = 1; i < params.population_size; ++i) {
if (history.back()[i].raw_fitness_ < opt_fitness) {
best_idx = i;
opt_fitness = history.back()[i].raw_fitness_;
}
}
std::string eqn = cg::stringify(history.back()[best_idx]);
std::cout << std::setw(30) << "Best AST depth " << std::setw(15) << history.back()[best_idx].depth
<< std::endl;
std::cout << std::setw(30) << "Best AST length " << std::setw(15) << history.back()[best_idx].len
<< std::endl;
std::cout << std::setw(30) << "Best AST equation " << std::setw(15) << eqn << std::endl;
std::cout << "Training time = " << training_time << "ms" << std::endl;
/* ======================= Begin testing ======================= */
std::cout << "***************************************" << std::endl;
std::cout << "Beginning Inference on test dataset " << std::endl;
cudaEventRecord(start, stream);
cuml::genetic::symRegPredict(
handle, dX_test.data(), n_test_rows, d_finalprogs + best_idx, dy_pred.data());
std::vector<float> hy_pred(n_test_rows, 0.0f);
CUDA_RT_CALL(cudaMemcpy(
hy_pred.data(), dy_pred.data(), n_test_rows * sizeof(float), cudaMemcpyDeviceToHost));
cuml::genetic::compute_metric(
handle, n_test_rows, 1, dy_test.data(), dy_pred.data(), dw_test.data(), d_score.data(), params);
cudaEventRecord(stop, stream);
cudaEventSynchronize(stop);
float inference_time;
cudaEventElapsedTime(&inference_time, start, stop);
// Output fitness score
std::cout << "Inference score = " << d_score.value(stream) << std::endl;
std::cout << "Inference time = " << inference_time << "ms" << std::endl;
std::cout << "Some Predicted test values:" << std::endl;
std::copy(hy_pred.begin(), hy_pred.begin() + 5, std::ostream_iterator<float>(std::cout, ";"));
std::cout << std::endl;
std::cout << "Corresponding Actual test values:" << std::endl;
std::copy(y_test.begin(), y_test.begin() + 5, std::ostream_iterator<float>(std::cout, ";"));
std::cout << std::endl;
/* ======================= Reset data ======================= */
curr_mr->deallocate(d_finalprogs, params.population_size, stream);
CUDA_RT_CALL(cudaEventDestroy(start));
CUDA_RT_CALL(cudaEventDestroy(stop));
return 0;
}
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/dbscan/CMakeLists_standalone.txt | #
# Copyright (c) 2019-2022, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
cmake_minimum_required(VERSION 3.26.4 FATAL_ERROR)
project(dbscan_example LANGUAGES CXX CUDA)
set(CMAKE_CXX_STANDARD 17)
set(CMAKE_CXX_STANDARD_REQUIRED ON)
find_package(cuml REQUIRED)
add_executable(dbscan_example dbscan_example.cpp)
target_link_libraries(dbscan_example PRIVATE cuml::cuml++)
# Need to set linker language to CUDA to link the CUDA Runtime
set_target_properties(dbscan_example PROPERTIES LINKER_LANGUAGE "CUDA")
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/dbscan/CMakeLists.txt | #=============================================================================
# Copyright (c) 2019-2021, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#=============================================================================
add_executable(dbscan_example dbscan_example.cpp)
target_link_libraries(dbscan_example cuml++)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/dbscan/README.md | # DBSCAN
This example code demonstrates use of C++ API of cuML DBSCAN. It requires `libcuml.so` in order to build.
## Build
The example can be build either as part of cuML or can also be build as a standalone. Two separate `CMakeLists.txt` files are provided for these two cases.
1. `CMakeLists.txt` - To be used when example is build as part of cuML
2. `CMakeLists_standalone.txt` - To be used for building example standalone
### Standalone build
While building standalone use `CMakeLists_standalone.txt` and configure with:
```bash
$ cmake .. -Dcuml_ROOT=/path/to/cuml
```
then build with `make`
```bash
$ make
[ 50%] Building CXX object CMakeFiles/dbscan_example.dir/dbscan_example.cpp.o
[100%] Linking CUDA executable dbscan_example
[100%] Built target dbscan_example
```
On successful build, example should build `dbscan_example` binary.
## Run
1. Run with trivial dataset:
When `dbscan_example` is invoked without any options, it loads a default trivial dataset and runs DBSCAN algorithm on that. The output should appear as shown below,
```
Samples file not specified. (-input option)
Running with default dataset:
Running DBSCAN with following parameters:
Number of samples - 25
Number of features - 3
min_pts - 2
eps - 1
Histogram of samples
Cluster id, Number samples
0, 13
1, 12
Total number of clusters: 2
Noise samples: 0
```
2. Run with non-trivial dataset:
To use `dbscan_example` on non-trivial datasets, first input file needs to be prepared. If the dataset has N samples with M features each, the input file needs to be and ASCII file with N\*M rows with features linearized as below,
```
sample-0-feature-0
sample-0-feature-1
...
sample-0-feature-(M-1)
sample-1-feature-0
sample-1-feature-1
...
sample-1-feature-(M-1)
...
...
sample-(N-1)-feature-0
sample-(N-1)-feature-1
...
sample-(N-1)-feature-(M-1)
```
All the features must be single precision floating point numbers. The example demonstrates single precision DBSCAN, but the cuML DBSCAN works equally well with double precision floating point numbers.
Once input file is ready, the `dbscan_example` can be invoked as below,
```
$ ./dbscan_example -input <input file> -num_samples <#samples> -num_features <#features> [-min_pts <minPts>] [-eps <eps>]
```
The output would look similar to,
```
Trying to read samples from synthetic-10000x25-clusters-15.txt
Running DBSCAN with following parameters:
Number of samples - 10000
Number of features - 25
min_pts - 5
eps - 0.6
Histogram of samples
Cluster id, Number samples
0, 665
1, 664
2, 663
3, 666
4, 665
5, 666
6, 662
7, 664
8, 666
9, 666
10, 663
11, 662
12, 665
13, 667
14, 666
Total number of clusters: 15
Noise samples: 30
```
The output of the example is a histogram of sample count in each cluster. Number of noise samples are also reported.
### Details of command line options
* `-dev_id`: The id of the CUDA GPU to use (default 0)
* `-num_samples`: Number of samples
* `-num_features`: Number of features
* `-input`: Plain text input file with samples in row major order
* `-min_pts`: Minimum number of samples in a cluster (default 3)
* `-eps`: Maximum distance between any two samples of a cluster (default 1.0)
If `-input` is specified, `-num_samples` and `-num_features` must be specified.
## Synthetic dataset generator
For convenience, a synthetic dataset generator `gen_dataset.py` is included with the example. It can be used as shown below,
```
./gen_dataset.py --num_samples 1000 --num_features 16 --num_clusters 10 --filename_prefix synthetic
Dataset file: synthetic-1000x16-clusters-10.txt
Generated total 1000 samples with 16 features each
Number of clusters = 10
```
Command line options
* `--num_samples` or `-ns`: Number of samples
* `--num_features` or `-nf`: Number of features
* `--num_clusters` or `-nc`: Number of clusters
* `--filename_prefix`: Prefix used for dataset output file. Number of samples, features and clusters are appended as shown in above example.
* `--standard_dev` or `-sd`: Standard deviation of samples generated (default 0.1)
* `--random_state` of `-rs`: Random state used for seeding the pseudo-random number generator (default 123456)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/dbscan/dbscan_example.cpp | /*
* Copyright (c) 2019-2023, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <algorithm>
#include <cmath>
#include <cuda_runtime.h>
#include <fstream>
#include <iomanip>
#include <iostream>
#include <map>
#include <sstream>
#include <vector>
#include <raft/core/handle.hpp>
#include <cuml/cluster/dbscan.hpp>
#ifndef CUDA_RT_CALL
#define CUDA_RT_CALL(call) \
{ \
cudaError_t cudaStatus = call; \
if (cudaSuccess != cudaStatus) \
fprintf(stderr, \
"ERROR: CUDA RT call \"%s\" in line %d of file %s failed with " \
"%s (%d).\n", \
#call, \
__LINE__, \
__FILE__, \
cudaGetErrorString(cudaStatus), \
cudaStatus); \
}
#endif // CUDA_RT_CALL
template <typename T>
T get_argval(char** begin, char** end, const std::string& arg, const T default_val)
{
T argval = default_val;
char** itr = std::find(begin, end, arg);
if (itr != end && ++itr != end) {
std::istringstream inbuf(*itr);
inbuf >> argval;
}
return argval;
}
bool get_arg(char** begin, char** end, const std::string& arg)
{
char** itr = std::find(begin, end, arg);
if (itr != end) { return true; }
return false;
}
void printUsage()
{
std::cout << "To run default example use:" << std::endl
<< " dbscan_example [-dev_id <GPU id>]" << std::endl
<< "For other cases:" << std::endl
<< " dbscan_example [-dev_id <GPU id>] -input <samples-file> "
<< "-num_samples <number of samples> -num_features <number of features> "
<< "[-min_pts <minimum number of samples in a cluster>] "
<< "[-eps <maximum distance between any two samples of a cluster>] "
<< "[-max_bytes_per_batch <maximum memory to use (in bytes) for batch size "
"calculation>] "
<< std::endl;
return;
}
void loadDefaultDataset(std::vector<float>& inputData,
size_t& nRows,
size_t& nCols,
int& minPts,
float& eps,
size_t& max_bytes_per_batch)
{
constexpr size_t NUM_ROWS = 25;
constexpr size_t NUM_COLS = 3;
constexpr int MIN_PTS = 2;
constexpr float EPS = 1.0f;
constexpr float data[NUM_ROWS * NUM_COLS] = {
-7.497668f, 9.218568f, -4.924911f, 8.001691f, -2.377415f, -3.496702f, -7.402899f, 9.162857f,
-4.894407f, -7.590056f, 9.375731f, -4.762814f, 7.822048f, -2.388025f, -3.403690f, -7.376115f,
9.441934f, -4.801385f, -7.531280f, 9.230399f, -4.763294f, 8.042177f, -2.665680f, -3.316565f,
7.944115f, -2.557312f, -3.185993f, 7.922114f, -2.423922f, -3.194180f, 7.897527f, -2.466402f,
-3.311819f, -7.569343f, 9.266988f, -4.779115f, -7.528063f, 9.156666f, -4.887371f, -7.296247f,
9.187418f, -4.754778f, 7.825963f, -2.351993f, -3.419239f, -7.608446f, 9.386856f, -4.750009f,
8.087856f, -2.330975f, -3.392595f, -7.503101f, 9.391059f, -4.762857f, 7.936867f, -2.410410f,
-3.397487f, -7.565027f, 9.248172f, -5.000937f, -7.339392f, 9.317035f, -4.778559f, 7.803362f,
-2.304214f, -3.173147f, -7.510096f, 9.441537f, -4.718324f, 8.025255f, -2.585647f, -3.019001f,
7.957931f, -2.547737f, -3.283212f};
nRows = NUM_ROWS;
nCols = NUM_COLS;
minPts = MIN_PTS;
eps = EPS;
max_bytes_per_batch = 0; // allow algorithm to set this
inputData.insert(inputData.begin(), data, data + nRows * nCols);
}
int main(int argc, char* argv[])
{
int devId = get_argval<int>(argv, argv + argc, "-dev_id", 0);
size_t nRows = get_argval<size_t>(argv, argv + argc, "-num_samples", 0);
size_t nCols = get_argval<size_t>(argv, argv + argc, "-num_features", 0);
std::string input = get_argval<std::string>(argv, argv + argc, "-input", std::string(""));
int minPts = get_argval<int>(argv, argv + argc, "-min_pts", 3);
float eps = get_argval<float>(argv, argv + argc, "-eps", 1.0f);
size_t max_bytes_per_batch =
get_argval<size_t>(argv, argv + argc, "-max_bytes_per_batch", (size_t)13e9);
{
cudaError_t cudaStatus = cudaSuccess;
cudaStatus = cudaSetDevice(devId);
if (cudaSuccess != cudaStatus) {
std::cerr << "ERROR: Could not select CUDA device with the id: " << devId << "("
<< cudaGetErrorString(cudaStatus) << ")" << std::endl;
return 1;
}
cudaStatus = cudaFree(0);
if (cudaSuccess != cudaStatus) {
std::cerr << "ERROR: Could not initialize CUDA on device: " << devId << "("
<< cudaGetErrorString(cudaStatus) << ")" << std::endl;
return 1;
}
}
std::vector<float> h_inputData;
if (input == "") {
// Samples file not specified, run with defaults
std::cout << "Samples file not specified. (-input option)" << std::endl;
std::cout << "Running with default dataset:" << std::endl;
loadDefaultDataset(h_inputData, nRows, nCols, minPts, eps, max_bytes_per_batch);
} else if (nRows == 0 || nCols == 0) {
// Samples file specified but nRows and nCols is not specified
// Print usage and quit
std::cerr << "Samples file: " << input << std::endl;
std::cerr << "Incorrect value for (num_samples x num_features): (" << nRows << " x " << nCols
<< ")" << std::endl;
printUsage();
return 1;
} else {
// All options are correctly specified
// Try to read input file now
std::ifstream input_stream(input, std::ios::in);
if (!input_stream.is_open()) {
std::cerr << "ERROR: Could not open input file " << input << std::endl;
return 1;
}
std::cout << "Trying to read samples from " << input << std::endl;
h_inputData.reserve(nRows * nCols);
float val = 0.0;
while (input_stream >> val) {
h_inputData.push_back(val);
}
if (h_inputData.size() != nRows * nCols) {
std::cerr << "ERROR: Read " << h_inputData.size() << " from " << input
<< ", while expecting to read: " << nRows * nCols << " (num_samples*num_features)"
<< std::endl;
return 1;
}
}
cudaStream_t stream;
CUDA_RT_CALL(cudaStreamCreate(&stream));
raft::handle_t handle{stream};
std::vector<int> h_labels(nRows);
int* d_labels = nullptr;
float* d_inputData = nullptr;
CUDA_RT_CALL(cudaMalloc(&d_labels, nRows * sizeof(int)));
CUDA_RT_CALL(cudaMalloc(&d_inputData, nRows * nCols * sizeof(float)));
CUDA_RT_CALL(cudaMemcpyAsync(d_inputData,
h_inputData.data(),
nRows * nCols * sizeof(float),
cudaMemcpyHostToDevice,
stream));
std::cout << "Running DBSCAN with following parameters:" << std::endl
<< "Number of samples - " << nRows << std::endl
<< "Number of features - " << nCols << std::endl
<< "min_pts - " << minPts << std::endl
<< "eps - " << eps << std::endl
<< "max_bytes_per_batch - " << max_bytes_per_batch << std::endl;
ML::Dbscan::fit(handle,
d_inputData,
nRows,
nCols,
eps,
minPts,
raft::distance::L2SqrtUnexpanded,
d_labels,
nullptr,
nullptr,
max_bytes_per_batch,
false);
CUDA_RT_CALL(cudaMemcpyAsync(
h_labels.data(), d_labels, nRows * sizeof(int), cudaMemcpyDeviceToHost, stream));
CUDA_RT_CALL(cudaStreamSynchronize(stream));
std::map<long, size_t> histogram;
for (int row = 0; row < nRows; row++) {
if (histogram.find(h_labels[row]) == histogram.end()) {
histogram[h_labels[row]] = 1;
} else {
histogram[h_labels[row]]++;
}
}
size_t nClusters = 0;
size_t noise = 0;
std::cout << "Histogram of samples" << std::endl;
std::cout << "Cluster id, Number samples" << std::endl;
for (auto it = histogram.begin(); it != histogram.end(); it++) {
if (it->first != -1) {
std::cout << std::setw(10) << it->first << ", " << it->second << std::endl;
nClusters++;
} else {
noise += it->second;
}
}
std::cout << "Total number of clusters: " << nClusters << std::endl;
std::cout << "Noise samples: " << noise << std::endl;
CUDA_RT_CALL(cudaFree(d_labels));
CUDA_RT_CALL(cudaFree(d_inputData));
CUDA_RT_CALL(cudaStreamDestroy(stream));
CUDA_RT_CALL(cudaDeviceSynchronize());
return 0;
}
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/dbscan/gen_dataset.py | #!/usr/bin/python3
#
# Copyright (c) 2019, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
import argparse
from sklearn.datasets import make_blobs
parser = argparse.ArgumentParser('gen_dataset.py ')
parser.add_argument('-ns', '--num_samples', type=int, default=10000,
help='Number of samples (default 10000)')
parser.add_argument('-nf', '--num_features', type=int, default=25,
help='Number of features (default 25)')
parser.add_argument('-nc', '--num_clusters', type=int, default=15,
help='Number of clusters (default 15)')
parser.add_argument('--filename_prefix', type=str, default='synthetic',
help='Prefix used for output file (default synthetic)')
parser.add_argument('-sd', '--standard_dev', type=str, default=0.1,
help='Standard deviation of samples generated')
parser.add_argument('-st', '--random_state', type=str, default=123456,
help='Standard deviation of samples generated')
args = parser.parse_args()
datasetFile = '%s-%dx%d-clusters-%d.txt' \
% (args.filename_prefix, args.num_samples, args.num_features,
args.num_clusters)
X, _ = make_blobs(n_samples=args.num_samples, n_features=args.num_features,
centers=args.num_clusters, cluster_std=args.standard_dev,
random_state=args.random_state)
fp = open(datasetFile, 'w')
for row in range(args.num_samples):
for col in range(args.num_features):
fp.write('%f\n' % X[row, col])
fp.close()
print('Dataset file: %s' % datasetFile)
print('Generated total %d samples with %d features each' % (args.num_samples,
args.num_features))
print('Number of clusters = %d' % args.num_clusters)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/kmeans/prepare_input.py | #!/usr/bin/env python3
#
# Copyright 2017-2018 H2O.ai, Inc.
# Copyright (c) 2019, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
# Based on
# https://github.com/h2oai/h2o4gpu/blob/master/examples/py/demos/H2O4GPU_KMeans_Homesite.ipynb
# as received on December 6th 2018
import os
import sys
from cuml.internals.safe_imports import cpu_only_import
pd = cpu_only_import('pandas')
np = cpu_only_import('numpy')
# read the data
train_file = "train.csv"
if len(sys.argv) > 1:
train_file = sys.argv[1]
test_file = "test.csv"
if len(sys.argv) > 2:
test_file = sys.argv[2]
output_file = "output.txt"
if len(sys.argv) > 3:
output_file = sys.argv[3]
print("Reading Input from train_file = %s and test_file = %s" % (train_file,
test_file))
if not os.path.exists(train_file) or not os.path.exists(test_file):
raise Exception("Download the dataset from here:"
" https://www.kaggle.com/c/homesite-quote-conversion/data")
train = pd.read_csv(train_file)
print("Training dataset dimension: ", train.shape)
test = pd.read_csv(test_file)
print("Test dataset dimension: ", test.shape)
# Data munging step - KMeans takes only numerical values
train.drop(['QuoteConversion_Flag'], axis=1, inplace=True)
dataset = pd.concat([train, test], ignore_index=True)
tmp = dataset.dtypes.reset_index().rename(columns={0: "type"})
indx = tmp["type"] == "object"
categoricals = tmp[indx]["index"].tolist()
# Replace nans as new category
for col in dataset.columns:
dataset[col] = dataset[col].fillna("0")
# Encode unfreq categories
for col in categoricals:
val_dict = dataset[col].value_counts()
val_dict = dataset[col].value_counts().reset_index()
indx = val_dict[col] < 100
res = val_dict[indx]["index"].tolist()
indx = dataset[col].isin(res)
vals = dataset[col].values
vals[indx] = "___UNFREQ___"
dataset[col] = vals
# Encode all as freqs
for col in categoricals:
val_dict = dataset[col].value_counts()
val_dict = val_dict / float(dataset.shape[0])
val_dict = val_dict.to_dict()
dataset[col] = dataset[col].apply(lambda x: val_dict[x])
trainenc = dataset.iloc[:train.shape[0], :].reset_index(drop=True)
trainencflt = trainenc.values.astype(np.float32)
print("Output dataset dimension: ", trainencflt.shape)
output = open(output_file, "w+")
num_items = 0
for row in trainencflt:
for val in row:
output.write("%f\n" % val)
num_items += 1
output.close()
print("Wrote %d values in row major order to output %s" % (num_items,
output_file))
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/kmeans/CMakeLists_standalone.txt | #
# Copyright (c) 2019-2022, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
cmake_minimum_required(VERSION 3.26.4 FATAL_ERROR)
project(kmeans_example LANGUAGES CXX CUDA)
set(CMAKE_CXX_STANDARD 17)
set(CMAKE_CXX_STANDARD_REQUIRED ON)
find_package(cuml REQUIRED)
add_executable(kmeans_example kmeans_example.cpp)
target_link_libraries(kmeans_example PRIVATE cuml::cuml++)
# Need to set linker language to CUDA to link the CUDA Runtime
set_target_properties(kmeans_example PROPERTIES LINKER_LANGUAGE "CUDA")
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/kmeans/CMakeLists.txt | #=============================================================================
# Copyright (c) 2019-2021, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#=============================================================================
add_executable(kmeans_example kmeans_example.cpp)
target_link_libraries(kmeans_example cuml++)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/kmeans/README.md | # kmeans
This subfolder contains an example on how to use cuML kmeans from C++ application
There are two `CMakeLists.txt` in this folder:
1. `CMakeLists.txt` (default) which is included when building cuML
2. `CMakeLists_standalone.txt` as an example for a stand alone project linking to `libcuml.so`
## Build
`kmeans_example` is build as part of cuML. If it should be build as a standalone executable use `CMakeLists_standalone.txt` and configure with:
```bash
$ cmake .. -Dcuml_ROOT=/path/to/cuml
```
then build with `make`
```bash
$ make
Scanning dependencies of target kmeans_example
[ 50%] Building CXX object CMakeFiles/kmeans_example.dir/kmeans_example.cpp.o
[100%] Linking CUDA executable kmeans_example
[100%] Built target kmeans_example
```
## Run
1. With tiny test input:
```
./kmeans_example
Run KMeans with k=2, max_iterations=300
```
2. With larger test data from Kaggle
1. Prepare input: Download Homesite Quote Conversion data from https://www.kaggle.com/c/homesite-quote-conversion/data and use `./prepare_input.py [train_file=train.csv] [test_file=test.csv] [output=output.txt]`:
```
$ unzip all.zip
$ ./prepare_input.py [train_file=train.csv] [test_file=test.csv] [output=output.txt]
Reading Input from train_file = train.csv and test_file = test.csv
Training dataset dimension: (260753, 299)
Test dataset dimension: (173836, 298)
Output dataset dimension: (260753, 298)
Wrote 77704394 values in row major order to output output.txt
```
2. Run
```
$ ./kmeans_example -num_rows 260753 -num_cols 298 -input output.txt
Reading input with 260753 rows and 298 columns from output.txt.
Run KMeans with k=10, max_iterations=300
num_pts inertia
0 18615 7.749915e+12
1 18419 7.592070e+12
2 30842 1.815066e+13
3 31247 1.832832e+13
4 31272 1.887647e+13
5 18362 7.749335e+12
6 31028 1.821217e+13
7 31040 1.869879e+13
8 18652 7.681686e+12
9 31276 1.877210e+13
Global inertia = 1.418115e+14
```
To run with other inputs the executable `kmeans_example` has the following commandline options
* `-dev_id`: The id of the CUDA GPU to use (default 0)
* `-num_rows`: Number of rows in the input file (default 0)
* `-num_cols`: Number of columns in the input file (default 0)
* `-input`: Input file name with input values as text in row major order (default empty string)
* `-k`: Number of clusters (default 10)
* `-max_iterations`: Maximum number of iterations to execute (default 300)
| 0 |
rapidsai_public_repos/cuml/cpp/examples | rapidsai_public_repos/cuml/cpp/examples/kmeans/kmeans_example.cpp | /*
* Copyright (c) 2019-2022, NVIDIA CORPORATION.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
#include <algorithm>
#include <cmath>
#include <fstream>
#include <iomanip>
#include <iostream>
#include <sstream>
#include <vector>
#include <cuda_runtime.h>
#include <cuml/cluster/kmeans.hpp>
#include <raft/core/handle.hpp>
#ifndef CUDA_RT_CALL
#define CUDA_RT_CALL(call) \
{ \
cudaError_t cudaStatus = call; \
if (cudaSuccess != cudaStatus) \
fprintf(stderr, \
"ERROR: CUDA RT call \"%s\" in line %d of file %s failed with " \
"%s (%d).\n", \
#call, \
__LINE__, \
__FILE__, \
cudaGetErrorString(cudaStatus), \
cudaStatus); \
}
#endif // CUDA_RT_CALL
template <typename T>
T get_argval(char** begin, char** end, const std::string& arg, const T default_val)
{
T argval = default_val;
char** itr = std::find(begin, end, arg);
if (itr != end && ++itr != end) {
std::istringstream inbuf(*itr);
inbuf >> argval;
}
return argval;
}
bool get_arg(char** begin, char** end, const std::string& arg)
{
char** itr = std::find(begin, end, arg);
if (itr != end) { return true; }
return false;
}
int main(int argc, char* argv[])
{
const int dev_id = get_argval<int>(argv, argv + argc, "-dev_id", 0);
const size_t num_rows = get_argval<size_t>(argv, argv + argc, "-num_rows", 0);
const size_t num_cols = get_argval<size_t>(argv, argv + argc, "-num_cols", 0);
const std::string input = get_argval<std::string>(argv, argv + argc, "-input", std::string(""));
// Default values for k and max_iterations are taken from
// https://github.com/h2oai/h2o4gpu/blob/master/examples/py/demos/H2O4GPU_KMeans_Homesite.ipynb
ML::kmeans::KMeansParams params;
params.n_clusters = get_argval<int>(argv, argv + argc, "-k", 10);
params.max_iter = get_argval<int>(argv, argv + argc, "-max_iterations", 300);
{
cudaError_t cudaStatus = cudaSuccess;
cudaStatus = cudaSetDevice(dev_id);
if (cudaSuccess != cudaStatus) {
std::cerr << "ERROR: Could not select CUDA device with the id: " << dev_id << "("
<< cudaGetErrorString(cudaStatus) << ")" << std::endl;
return 1;
}
cudaStatus = cudaFree(0);
if (cudaSuccess != cudaStatus) {
std::cerr << "ERROR: Could not initialize CUDA on device: " << dev_id << "("
<< cudaGetErrorString(cudaStatus) << ")" << std::endl;
return 1;
}
}
std::vector<double> h_srcdata;
if ("" != input) {
std::ifstream input_stream(input, std::ios::in);
if (!input_stream.is_open()) {
std::cerr << "ERROR: Could not open input file " << input << std::endl;
return 1;
}
std::cout << "Reading input with " << num_rows << " rows and " << num_cols << " columns from "
<< input << "." << std::endl;
h_srcdata.reserve(num_rows * num_cols);
double val = 0.0;
while (input_stream >> val) {
h_srcdata.push_back(val);
}
}
bool results_correct = true;
if (0 == h_srcdata.size() || (num_rows * num_cols) == h_srcdata.size()) {
// Input parameters copied from kmeans_test.cu
if (0 == h_srcdata.size()) {
params.n_clusters = 2;
params.max_iter = 300;
params.tol = 0.05;
}
params.metric = raft::distance::DistanceType::L2SqrtExpanded;
params.init = ML::kmeans::KMeansParams::InitMethod::Random;
// Inputs copied from kmeans_test.cu
size_t n_samples = 4;
size_t n_features = 2;
if (0 == h_srcdata.size()) {
h_srcdata = {1.0, 1.0, 3.0, 4.0, 1.0, 2.0, 2.0, 3.0};
} else {
n_samples = num_rows;
n_features = num_cols;
}
std::cout << "Run KMeans with k=" << params.n_clusters << ", max_iterations=" << params.max_iter
<< std::endl;
cudaStream_t stream;
CUDA_RT_CALL(cudaStreamCreate(&stream));
raft::handle_t handle{stream};
// srcdata size n_samples * n_features
double* d_srcdata = nullptr;
CUDA_RT_CALL(cudaMalloc(&d_srcdata, n_samples * n_features * sizeof(double)));
CUDA_RT_CALL(cudaMemcpyAsync(d_srcdata,
h_srcdata.data(),
n_samples * n_features * sizeof(double),
cudaMemcpyHostToDevice,
stream));
// output pred_centroids size n_clusters * n_features
double* d_pred_centroids = nullptr;
CUDA_RT_CALL(cudaMalloc(&d_pred_centroids, params.n_clusters * n_features * sizeof(double)));
// output pred_labels size n_samples
int* d_pred_labels = nullptr;
CUDA_RT_CALL(cudaMalloc(&d_pred_labels, n_samples * sizeof(int)));
double inertia = 0;
int n_iter = 0;
ML::kmeans::fit_predict(handle,
params,
d_srcdata,
n_samples,
n_features,
0,
d_pred_centroids,
d_pred_labels,
inertia,
n_iter);
std::vector<int> h_pred_labels(n_samples);
CUDA_RT_CALL(cudaMemcpyAsync(h_pred_labels.data(),
d_pred_labels,
n_samples * sizeof(int),
cudaMemcpyDeviceToHost,
stream));
std::vector<double> h_pred_centroids(params.n_clusters * n_features);
CUDA_RT_CALL(cudaMemcpyAsync(h_pred_centroids.data(),
d_pred_centroids,
params.n_clusters * n_features * sizeof(double),
cudaMemcpyDeviceToHost,
stream));
CUDA_RT_CALL(cudaStreamSynchronize(stream));
if (8 == h_srcdata.size()) {
int h_labels_ref_fit[n_samples] = {0, 1, 0, 1};
for (int i = 0; i < n_samples; ++i) {
if (h_labels_ref_fit[i] != h_pred_labels[i]) {
std::cerr << "ERROR: h_labels_ref_fit[" << i << "] = " << h_labels_ref_fit[i]
<< " != " << h_pred_labels[i] << " = h_pred_labels[" << i << "]!" << std::endl;
results_correct = false;
}
}
double h_centroids_ref[params.n_clusters * n_features] = {1.0, 1.5, 2.5, 3.5};
for (int i = 0; i < params.n_clusters * n_features; ++i) {
if (std::abs(h_centroids_ref[i] - h_pred_centroids[i]) / std::abs(h_centroids_ref[i]) >
std::numeric_limits<double>::epsilon()) {
std::cerr << "ERROR: h_centroids_ref[" << i << "] = " << h_centroids_ref[i]
<< " !~= " << h_pred_centroids[i] << " = h_pred_centroids[" << i << "]!"
<< std::endl;
results_correct = false;
}
}
} else {
std::vector<std::pair<size_t, double>> cluster_stats(
params.n_clusters, std::make_pair(static_cast<size_t>(0), 0.0));
double global_inertia = 0.0;
size_t max_points = 0;
for (size_t i = 0; i < n_samples; ++i) {
int label = h_pred_labels[i];
cluster_stats[label].first += 1;
max_points = std::max(cluster_stats[label].first, max_points);
double sd = 0.0;
for (int j = 0; j < n_features; ++j) {
const double cluster_centroid_comp = h_pred_centroids[label * n_features + j];
const double point_comp = h_srcdata[i * n_features + j];
sd += (cluster_centroid_comp - point_comp) * (cluster_centroid_comp - point_comp);
}
cluster_stats[label].second += sd;
global_inertia += sd;
}
int lable_widht = 0;
int max_label = (params.n_clusters - 1);
do {
lable_widht += 1;
max_label /= 10;
} while (max_label > 0);
int num_pts_width = 0;
do {
num_pts_width += 1;
max_points /= 10;
} while (max_points > 0);
num_pts_width = std::max(num_pts_width, 7);
for (int c = 0; c < lable_widht; ++c)
std::cout << " ";
std::cout << " num_pts inertia" << std::endl;
for (int l = 0; l < params.n_clusters; ++l) {
std::cout << std::setw(lable_widht) << l << " " << std::setw(num_pts_width)
<< cluster_stats[l].first << " " << std::scientific << std::setprecision(6)
<< cluster_stats[l].second << std::endl;
}
std::cout << "Global inertia = " << global_inertia << std::endl;
}
CUDA_RT_CALL(cudaFree(d_pred_labels));
d_pred_labels = nullptr;
CUDA_RT_CALL(cudaFree(d_pred_centroids));
d_pred_centroids = nullptr;
CUDA_RT_CALL(cudaFree(d_srcdata));
d_srcdata = nullptr;
CUDA_RT_CALL(cudaStreamDestroy(stream));
} else {
std::cerr << "ERROR: Number of input values = " << h_srcdata.size()
<< " != " << num_rows * num_cols << " = " << num_rows << "*" << num_cols << " !"
<< std::endl;
return 1;
}
#ifdef HAVE_RMM
if (rmmIsInitialized(NULL)) { rmmFinalize(); }
#endif // HAVE_RMM
CUDA_RT_CALL(cudaDeviceReset());
return results_correct ? 0 : 1;
}
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/target_encoder_walkthrough.ipynb | import os
GPU_id = '0,1,2,3'
os.environ['CUDA_VISIBLE_DEVICES'] = GPU_id
num_gpus = len(GPU_id.split(','))import warnings
warnings.filterwarnings("ignore")
import numpy as np
import cudf as gd
import cupy as cp
from cuml.preprocessing.LabelEncoder import LabelEncoder
from cuml.preprocessing.TargetEncoder import TargetEncoder
import dask as dask, dask_cudf
from dask.distributed import Client, wait
from dask_cuda import LocalCUDACluster
import xgboost as xgb
import matplotlib.pyplot as plt
import time%%time
path = '/datasets/criteo/raw_csvs/split_train_data'
train_name = f'{path}/day_0_part_0000'
valid_name = f'{path}/day_0_part_0001'
num_cols = ['num_%d'%i for i in range(13)]
cat_cols = ['cat_%d'%i for i in range(26)]
cols = ['label']+num_cols+cat_cols
dtypes = {i:'str' if i.startswith('cat_') else 'float32' for i in cols}
train = gd.read_csv(train_name, sep = '\t', header=None, names=cols, dtypes=dtypes)
valid = gd.read_csv(valid_name, sep = '\t', header=None, names=cols, dtypes=dtypes)
used_cols = ['label']+cat_cols[:3]
train = train[used_cols]
valid = valid[used_cols]
train.head()for col in cat_cols[:3]:
print(col,'cardinality',len(train[col].unique()), len(valid[col].unique()))%%time
for col in cat_cols[:3]:
train[col] = train[col].fillna('None')
valid[col] = valid[col].fillna('None')
lbl = LabelEncoder()
lbl.fit(gd.concat([train[col],valid[col]]))
train[col] = lbl.transform(train[col])
valid[col] = lbl.transform(valid[col])train.head()xgb_parms = {
'max_depth':6,
'learning_rate':0.1,
'subsample':0.8,
'colsample_bytree':1.0,
'eval_metric':'auc',
'objective':'binary:logistic',
'tree_method':'gpu_hist',
}NROUND = 100
VERBOSE_EVAL = 10
ESR = 10
start = time.time(); print('Creating DMatrix...')
dtrain = xgb.DMatrix(data=train.drop('label',axis=1),label=train['label'])
dvalid = xgb.DMatrix(data=valid.drop('label',axis=1),label=valid['label'])
print('Took %.1f seconds'%(time.time()-start))
start = time.time(); print('Training...')
model = xgb.train(xgb_parms,
dtrain=dtrain,
evals=[(dtrain,'train'),(dvalid,'valid')],
num_boost_round=NROUND,
early_stopping_rounds=ESR,
verbose_eval=VERBOSE_EVAL) %%time
for col in cat_cols[:3]:
tmp = train.groupby(col, as_index=False).agg({'label':'mean'})
tmp.columns = [col, f'{col}_TE']
train = train.merge(tmp, on=col, how='left')
valid = valid.merge(tmp, on=col, how='left')
del tmp
train.head()te_cols = [col for col in train.columns if col.endswith('TE')]
print(te_cols)
start = time.time(); print('Creating DMatrix...')
dtrain = xgb.DMatrix(data=train[te_cols],label=train['label'])
dvalid = xgb.DMatrix(data=valid[te_cols],label=valid['label'])
print('Took %.1f seconds'%(time.time()-start))
start = time.time(); print('Training...')
model = xgb.train(xgb_parms,
dtrain=dtrain,
evals=[(dtrain,'train'),(dvalid,'valid')],
num_boost_round=NROUND,
early_stopping_rounds=ESR,
verbose_eval=VERBOSE_EVAL) labels = ['Label encoding', 'Target encoding naive']
train_auc = [0.65, 0.84]
valid_auc = [0.64, 0.63]
x = np.arange(len(labels)) # the label locations
width = 0.35 # the width of the bars
fig, ax = plt.subplots()
rects1 = ax.bar(x - width/2, train_auc, width, label='train auc', color='m')
rects2 = ax.bar(x + width/2, valid_auc, width, label='valid auc', color='c')
ax.set_ylabel('Auc')
ax.set_title('The overfitting problem of naive target encoding')
ax.set_xticks(x)
ax.set_xticklabels(labels)
ax.legend()# drop the naive TE columns
train = train.drop(te_cols, axis=1)
valid = valid.drop(te_cols, axis=1)%%time
FOLDS = 10
train['fold'] = cp.arange(len(train))%FOLDS
train['row_id'] = cp.arange(len(train))
mean = train['label'].mean()
for col in cat_cols[:3]:
res = []
out_col = f'{col}_TE'
for i in range(FOLDS):
tmp = train[train['fold']!=i].groupby(col, as_index=False).agg({'label':'mean'})
tmp.columns = [col, out_col]
tr = train[train['fold']==i][['row_id',col]]
tr = tr.merge(tmp,on=col,how='left')
res.append(tr)
del tmp
res = gd.concat(res)
res = res.sort_values('row_id')
train[out_col] = res[out_col].fillna(mean).values
del res
tmp = train.groupby(col, as_index=False).agg({'label':'mean'})
tmp.columns = [col, out_col]
valid = valid.merge(tmp, on=col, how='left')
del tmp
train.head()te_cols = [col for col in train.columns if col.endswith('TE')]
print(te_cols)
start = time.time(); print('Creating DMatrix...')
dtrain = xgb.DMatrix(data=train[te_cols],label=train['label'])
dvalid = xgb.DMatrix(data=valid[te_cols],label=valid['label'])
print('Took %.1f seconds'%(time.time()-start))
start = time.time(); print('Training...')
model = xgb.train(xgb_parms,
dtrain=dtrain,
evals=[(dtrain,'train'),(dvalid,'valid')],
num_boost_round=NROUND,
early_stopping_rounds=ESR,
verbose_eval=VERBOSE_EVAL) labels = ['Label encoding', 'Target encoding naive', 'Target encoding kfold for loop']
train_auc = [0.65, 0.84, 0.71]
valid_auc = [0.64, 0.63, 0.7]
x = np.arange(len(labels)) # the label locations
width = 0.35 # the width of the bars
fig, ax = plt.subplots()
fig.set_figwidth(15)
rects1 = ax.bar(x - width/2, train_auc, width, label='train auc', color='m')
rects2 = ax.bar(x + width/2, valid_auc, width, label='valid auc', color='c')
ax.set_ylabel('Auc')
ax.set_title('The overfitting problem is fixed by kfold target encoding')
ax.set_xticks(x)
ax.set_xticklabels(labels)
ax.legend()# drop the previous TE columns
train = train.drop(te_cols, axis=1)
valid = valid.drop(te_cols, axis=1)%%time
SMOOTH = 0.001
SPLIT = 'interleaved'
for col in cat_cols[:3]:
out_col = f'{col}_TE'
encoder = TargetEncoder(n_folds=FOLDS, smooth=SMOOTH, split_method=SPLIT)
#train[out_col] = encoder.fit_transform(train[col], train['label'])
encoder.fit(train[col], train['label'])
train[out_col] = encoder.transform(train[col])
valid[out_col] = encoder.transform(valid[col])te_cols = [col for col in train.columns if col.endswith('TE')]
print(te_cols)
start = time.time(); print('Creating DMatrix...')
dtrain = xgb.DMatrix(data=train[te_cols],label=train['label'])
dvalid = xgb.DMatrix(data=valid[te_cols],label=valid['label'])
print('Took %.1f seconds'%(time.time()-start))
start = time.time(); print('Training...')
model = xgb.train(xgb_parms,
dtrain=dtrain,
evals=[(dtrain,'train'),(dvalid,'valid')],
num_boost_round=NROUND,
early_stopping_rounds=ESR,
verbose_eval=VERBOSE_EVAL) labels = ['Label encoding', 'Target encoding naive', 'Target encoding kfold for loop', 'Target encoding optimized']
train_auc = [0.65, 0.84, 0.71, 0.72]
valid_auc = [0.64, 0.63, 0.7, 0.704]
x = np.arange(len(labels)) # the label locations
width = 0.35 # the width of the bars
fig, ax = plt.subplots()
fig.set_figwidth(15)
rects1 = ax.bar(x - width/2, train_auc, width, label='train auc', color='m')
rects2 = ax.bar(x + width/2, valid_auc, width, label='valid auc', color='c')
ax.set_ylabel('Auc')
ax.set_title('The overfitting problem is fixed by kfold target encoding')
ax.set_xticks(x)
ax.set_xticklabels(labels)
ax.legend()%%time
for cols in [['cat_0', 'cat_1'],
['cat_0', 'cat_2'],
['cat_1', 'cat_2'],
['cat_0', 'cat_1', 'cat_2']
]:
out_col = '_'.join(cols)+'_TE'
encoder = TargetEncoder(n_folds=FOLDS,smooth=SMOOTH, split_method=SPLIT)
train[out_col] = encoder.fit_transform(train[cols], train['label'])
valid[out_col] = encoder.transform(valid[cols])
del encoderte_cols = [col for col in train.columns if col.endswith('TE')]
print(te_cols)
start = time.time(); print('Creating DMatrix...')
dtrain = xgb.DMatrix(data=train[te_cols],label=train['label'])
dvalid = xgb.DMatrix(data=valid[te_cols],label=valid['label'])
print('Took %.1f seconds'%(time.time()-start))
start = time.time(); print('Training...')
model = xgb.train(xgb_parms,
dtrain=dtrain,
evals=[(dtrain,'train'),(dvalid,'valid')],
num_boost_round=NROUND,
early_stopping_rounds=ESR,
verbose_eval=VERBOSE_EVAL) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/linear_regression_demo.ipynb | import cudf
from cuml import make_regression, train_test_split
from cuml.linear_model import LinearRegression as cuLinearRegression
from cuml.metrics.regression import r2_score
from sklearn.linear_model import LinearRegression as skLinearRegressionn_samples = 2**20 #If you are running on a GPU with less than 16GB RAM, please change to 2**19 or you could run out of memory
n_features = 399
random_state = 23%%time
X, y = make_regression(n_samples=n_samples, n_features=n_features, random_state=random_state)
X = cudf.DataFrame(X)
y = cudf.DataFrame(y)[0]
X_cudf, X_cudf_test, y_cudf, y_cudf_test = train_test_split(X, y, test_size = 0.2, random_state=random_state)# Copy dataset from GPU memory to host memory.
# This is done to later compare CPU and GPU results.
X_train = X_cudf.to_pandas()
X_test = X_cudf_test.to_pandas()
y_train = y_cudf.to_pandas()
y_test = y_cudf_test.to_pandas()%%time
ols_sk = skLinearRegression(fit_intercept=True,
n_jobs=-1)
ols_sk.fit(X_train, y_train)%%time
predict_sk = ols_sk.predict(X_test)%%time
r2_score_sk = r2_score(y_cudf_test, predict_sk)%%time
ols_cuml = cuLinearRegression(fit_intercept=True,
algorithm='eig')
ols_cuml.fit(X_cudf, y_cudf)%%time
predict_cuml = ols_cuml.predict(X_cudf_test)%%time
r2_score_cuml = r2_score(y_cudf_test, predict_cuml)print("R^2 score (SKL): %s" % r2_score_sk)
print("R^2 score (cuML): %s" % r2_score_cuml) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/kmeans_mnmg_demo.ipynb | from cuml.dask.cluster.kmeans import KMeans as cuKMeans
from cuml.dask.common import to_dask_df
from cuml.dask.datasets import make_blobs
from cuml.metrics import adjusted_rand_score
from dask.distributed import Client, wait
from dask_cuda import LocalCUDACluster
from dask_ml.cluster import KMeans as skKMeans
import cupy as cpcluster = LocalCUDACluster(threads_per_worker=1)
client = Client(cluster)n_samples = 1000000
n_features = 2
n_total_partitions = len(list(client.has_what().keys()))X_dca, Y_dca = make_blobs(n_samples,
n_features,
centers = 5,
n_parts = n_total_partitions,
cluster_std=0.1,
verbose=True)X_cp = X_dca.compute()
X_np = cp.asnumpy(X_cp)
del X_cp%%time
kmeans_sk = skKMeans(init="k-means||",
n_clusters=5,
n_jobs=-1,
random_state=100)
kmeans_sk.fit(X_np)%%time
labels_sk = kmeans_sk.predict(X_np).compute()%%time
kmeans_cuml = cuKMeans(init="k-means||",
n_clusters=5,
random_state=100)
kmeans_cuml.fit(X_dca)%%time
labels_cuml = kmeans_cuml.predict(X_dca).compute()score = adjusted_rand_score(labels_sk, labels_cuml)passed = score == 1.0
print('compare kmeans: cuml vs sklearn labels_ are ' + ('equal' if passed else 'NOT equal')) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/README.md | # cuML Notebooks
## Intro
These notebooks provide examples of how to use cuML. These notebooks are designed to be self-contained with the `runtime` version of the [RAPIDS Docker Container](https://hub.docker.com/r/rapidsai/rapidsai/) and [RAPIDS Nightly Docker Containers](https://hub.docker.com/r/rapidsai/rapidsai-nightly) and can run on air-gapped systems. You can quickly get this container using the install guide from the [RAPIDS.ai Getting Started page](https://rapids.ai/start.html#get-rapids)
## Getting started notebooks
For a good overview of how cuML works, see [the introductory notebook
on estimators](../docs/source/estimator_intro.ipynb) in the
documentation tree.
## Additional notebooks
Notebook Title | Status | Description
--- | --- | ---
[ARIMA Demo](arima_demo.ipynb) | Working | Forecast using ARIMA on time-series data.
[Forest Inference Demo](forest_inference_demo.ipynb) | Working | Save and load an XGBoost model into FIL and infer on new data.
[KMeans Demo](kmeans_demo.ipynb) | Working | Predict using k-means, visualize and compare the results with Scikit-learn's k-means.
[KMeans Multi-Node Multi-GPU Demo](kmeans_mnmg_demo.ipynb) | Working | Predict with MNMG k-means using dask distributed inputs.
[Linear Regression Demo](linear_regression_demo.ipynb) | Working | Demonstrate the use of OLS Linear Regression for prediction.
[Nearest Neighbors Demo](nearest_neighbors_demo.ipynb) | Working | Predict using Nearest Neighbors algorithm.
[Random Forest Demo](random_forest_demo.ipynb) | Working | Use Random Forest for classification, and demonstrate how to pickle the cuML model.
[Random Forest Multi-Node Multi-GPU Demo](random_forest_mnmg_demo.ipynb) | Working | Solve a classification problem using MNMG Random Forest.
[Target Encoder Walkthrough](target_encoder_walkthrough.ipynb) | Working | Understand how to use target encoding and why it is preferred over one-hot and label encoding with the help of criteo dataset for click-through rate modelling.
## For more details
Many more examples can be found in the [RAPIDS Notebooks
Contrib](https://github.com/rapidsai/notebooks-contrib) repository,
which contains community-maintained notebooks.
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/nearest_neighbors_demo.ipynb | import cudf
import numpy as np
from cuml.datasets import make_blobs
from cuml.neighbors import NearestNeighbors as cuNearestNeighbors
from sklearn.neighbors import NearestNeighbors as skNearestNeighborsn_samples = 2**17
n_features = 40
n_query = 2**13
n_neighbors = 4
random_state = 0%%time
device_data, _ = make_blobs(n_samples=n_samples,
n_features=n_features,
centers=5,
random_state=random_state)
device_data = cudf.DataFrame(device_data)# Copy dataset from GPU memory to host memory.
# This is done to later compare CPU and GPU results.
host_data = device_data.to_pandas()%%time
knn_sk = skNearestNeighbors(algorithm="brute",
n_jobs=-1)
knn_sk.fit(host_data)%%time
D_sk, I_sk = knn_sk.kneighbors(host_data[:n_query], n_neighbors)%%time
knn_cuml = cuNearestNeighbors()
knn_cuml.fit(device_data)%%time
D_cuml, I_cuml = knn_cuml.kneighbors(device_data[:n_query], n_neighbors)passed = np.allclose(D_sk, D_cuml.to_numpy(), atol=1e-3)
print('compare knn: cuml vs sklearn distances %s'%('equal'if passed else 'NOT equal'))sk_sorted = np.sort(I_sk, axis=1)
cuml_sorted = np.sort(I_cuml.to_numpy(), axis=1)
diff = sk_sorted - cuml_sorted
passed = (len(diff[diff!=0]) / n_samples) < 1e-9
print('compare knn: cuml vs sklearn indexes %s'%('equal'if passed else 'NOT equal')) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/kmeans_demo.ipynb | import cudf
import cupy
import matplotlib.pyplot as plt
from cuml.cluster import KMeans as cuKMeans
from cuml.datasets import make_blobs
from sklearn.cluster import KMeans as skKMeans
from sklearn.metrics import adjusted_rand_score
%matplotlib inlinen_samples = 100000
n_features = 25
n_clusters = 8
random_state = 0device_data, device_labels = make_blobs(
n_samples=n_samples,
n_features=n_features,
centers=n_clusters,
random_state=random_state,
cluster_std=0.1
)# Copy CuPy arrays from GPU memory to host memory (NumPy arrays).
# This is done to later compare CPU and GPU results.
host_data = device_data.get()
host_labels = device_labels.get()kmeans_sk = skKMeans(
init="k-means++",
n_clusters=n_clusters,
random_state=random_state,
n_init='auto'
)
%timeit kmeans_sk.fit(host_data)kmeans_cuml = cuKMeans(
init="k-means||",
n_clusters=n_clusters,
random_state=random_state
)
%timeit kmeans_cuml.fit(device_data)fig = plt.figure(figsize=(16, 10))
plt.scatter(host_data[:, 0], host_data[:, 1], c=host_labels, s=50, cmap='viridis')
#plot the sklearn kmeans centers with blue filled circles
centers_sk = kmeans_sk.cluster_centers_
plt.scatter(centers_sk[:,0], centers_sk[:,1], c='blue', s=100, alpha=.5)
#plot the cuml kmeans centers with red circle outlines
centers_cuml = kmeans_cuml.cluster_centers_
plt.scatter(cupy.asnumpy(centers_cuml[:, 0]),
cupy.asnumpy(centers_cuml[:, 1]),
facecolors = 'none', edgecolors='red', s=100)
plt.title('cuML and sklearn kmeans clustering')
plt.show()%%time
cuml_score = adjusted_rand_score(host_labels, kmeans_cuml.labels_.get())
sk_score = adjusted_rand_score(host_labels, kmeans_sk.labels_)threshold = 1e-4
passed = (cuml_score - sk_score) < threshold
print('compare kmeans: cuml vs sklearn labels_ are ' + ('equal' if passed else 'NOT equal')) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/random_forest_demo.ipynb | import cudf
import numpy as np
import pandas as pd
import pickle
from cuml.ensemble import RandomForestClassifier as curfc
from cuml.metrics import accuracy_score
from sklearn.ensemble import RandomForestClassifier as skrfc
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split# The speedup obtained by using cuML'sRandom Forest implementation
# becomes much higher when using larger datasets. Uncomment and use the n_samples
# value provided below to see the difference in the time required to run
# Scikit-learn's vs cuML's implementation with a large dataset.
# n_samples = 2*17
n_samples = 2**12
n_features = 399
n_info = 300
data_type = np.float32%%time
X,y = make_classification(n_samples=n_samples,
n_features=n_features,
n_informative=n_info,
random_state=123, n_classes=2)
X = pd.DataFrame(X.astype(data_type))
# cuML Random Forest Classifier requires the labels to be integers
y = pd.Series(y.astype(np.int32))
X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size = 0.2,
random_state=0)%%time
X_cudf_train = cudf.DataFrame.from_pandas(X_train)
X_cudf_test = cudf.DataFrame.from_pandas(X_test)
y_cudf_train = cudf.Series(y_train.values)%%time
sk_model = skrfc(n_estimators=40,
max_depth=16,
max_features=1.0,
random_state=10)
sk_model.fit(X_train, y_train)%%time
sk_predict = sk_model.predict(X_test)
sk_acc = accuracy_score(y_test, sk_predict)%%time
cuml_model = curfc(n_estimators=40,
max_depth=16,
max_features=1.0,
random_state=10)
cuml_model.fit(X_cudf_train, y_cudf_train)%%time
fil_preds_orig = cuml_model.predict(X_cudf_test)
fil_acc_orig = accuracy_score(y_test.to_numpy(), fil_preds_orig)filename = 'cuml_random_forest_model.sav'
# save the trained cuml model into a file
pickle.dump(cuml_model, open(filename, 'wb'))
# delete the previous model to ensure that there is no leakage of pointers.
# this is not strictly necessary but just included here for demo purposes.
del cuml_model
# load the previously saved cuml model from a file
pickled_cuml_model = pickle.load(open(filename, 'rb'))
%%time
pred_after_pickling = pickled_cuml_model.predict(X_cudf_test)
fil_acc_after_pickling = accuracy_score(y_test.to_numpy(), pred_after_pickling)print("CUML accuracy of the RF model before pickling: %s" % fil_acc_orig)
print("CUML accuracy of the RF model after pickling: %s" % fil_acc_after_pickling)print("SKL accuracy: %s" % sk_acc)
print("CUML accuracy before pickling: %s" % fil_acc_orig) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/random_forest_mnmg_demo.ipynb | import numpy as np
import sklearn
import pandas as pd
import cudf
import cuml
from sklearn import model_selection
from cuml import datasets
from cuml.metrics import accuracy_score
from cuml.dask.common import utils as dask_utils
from dask.distributed import Client, wait
from dask_cuda import LocalCUDACluster
import dask_cudf
from cuml.dask.ensemble import RandomForestClassifier as cumlDaskRF
from sklearn.ensemble import RandomForestClassifier as sklRF# This will use all GPUs on the local host by default
cluster = LocalCUDACluster(threads_per_worker=1)
c = Client(cluster)
# Query the client for all connected workers
workers = c.has_what().keys()
n_workers = len(workers)
n_streams = 8 # Performance optimization# Data parameters
train_size = 100000
test_size = 1000
n_samples = train_size + test_size
n_features = 20
# Random Forest building parameters
max_depth = 12
n_bins = 16
n_trees = 1000X, y = datasets.make_classification(n_samples=n_samples, n_features=n_features,
n_clusters_per_class=1, n_informative=int(n_features / 3),
random_state=123, n_classes=5)
X = X.astype(np.float32)
y = y.astype(np.int32)
X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=test_size)n_partitions = n_workers
def distribute(X, y):
# First convert to cudf (with real data, you would likely load in cuDF format to start)
X_cudf = cudf.DataFrame(X)
y_cudf = cudf.Series(y)
# Partition with Dask
# In this case, each worker will train on 1/n_partitions fraction of the data
X_dask = dask_cudf.from_cudf(X_cudf, npartitions=n_partitions)
y_dask = dask_cudf.from_cudf(y_cudf, npartitions=n_partitions)
# Persist to cache the data in active memory
X_dask, y_dask = \
dask_utils.persist_across_workers(c, [X_dask, y_dask], workers=workers)
return X_dask, y_dask
X_train_dask, y_train_dask = distribute(X_train, y_train)
X_test_dask, y_test_dask = distribute(X_test, y_test)%%time
# Use all available CPU cores
skl_model = sklRF(max_depth=max_depth, n_estimators=n_trees, n_jobs=-1)
skl_model.fit(X_train.get(), y_train.get())%%time
cuml_model = cumlDaskRF(max_depth=max_depth, n_estimators=n_trees, n_bins=n_bins, n_streams=n_streams)
cuml_model.fit(X_train_dask, y_train_dask)
wait(cuml_model.rfs) # Allow asynchronous training tasks to finishskl_y_pred = skl_model.predict(X_test.get())
cuml_y_pred = cuml_model.predict(X_test_dask).compute().to_numpy()
# Due to randomness in the algorithm, you may see slight variation in accuracies
print("SKLearn accuracy: ", accuracy_score(y_test, skl_y_pred))
print("CuML accuracy: ", accuracy_score(y_test, cuml_y_pred)) | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/forest_inference_demo.ipynb | import cupy
import os
from cuml.testing.utils import array_equal
from cuml.internals.import_utils import has_xgboost
from cuml.datasets import make_classification
from cuml.metrics import accuracy_score
from cuml.model_selection import train_test_split
from cuml import ForestInferenceif has_xgboost():
import xgboost as xgb
else:
raise ImportError("Please install xgboost using the conda package,"
"e.g.: conda install -c conda-forge xgboost")# synthetic data size
n_rows = 10000
n_columns = 100
n_categories = 2
random_state = cupy.random.RandomState(43210)
# fraction of data used for model training
train_size = 0.8
# trained model output filename
model_path = 'xgb.model'
# num of iterations for which xgboost is trained
num_rounds = 100
# maximum tree depth in each training round
max_depth = 20# create the dataset
X, y = make_classification(
n_samples=n_rows,
n_features=n_columns,
n_informative=int(n_columns/5),
n_classes=n_categories,
random_state=42
)
# convert the dataset to float32
X = X.astype('float32')
y = y.astype('float32')
# split the dataset into training and validation splits
X_train, X_validation, y_train, y_validation = train_test_split(X, y, train_size=0.8)def train_xgboost_model(
X_train,
y_train,
model_path='xgb.model',
num_rounds=100,
max_depth=20
):
# set the xgboost model parameters
params = {
'verbosity': 0,
'eval_metric':'error',
'objective':'binary:logistic',
'max_depth': max_depth,
'tree_method': 'gpu_hist'
}
# convert training data into DMatrix
dtrain = xgb.DMatrix(X_train, label=y_train)
# train the xgboost model
trained_model = xgb.train(params, dtrain, num_rounds)
# save the trained xgboost model
trained_model.save_model(model_path)
return trained_modeldef predict_xgboost_model(X_validation, y_validation, xgb_model):
# predict using the xgboost model
dvalidation = xgb.DMatrix(X_validation, label=y_validation)
predictions = xgb_model.predict(dvalidation)
# convert the predicted values from xgboost into class labels
predictions = cupy.around(predictions)
return predictions%%time
# train the xgboost model
xgboost_model = train_xgboost_model(
X_train,
y_train,
model_path,
num_rounds,
max_depth
)%%time
# test the xgboost model
trained_model_preds = predict_xgboost_model(
X_validation,
y_validation,
xgboost_model
)fil_model = ForestInference.load(
filename=model_path,
algo='BATCH_TREE_REORG',
output_class=True,
threshold=0.50,
model_type='xgboost'
)%%time
# perform prediction on the model loaded from path
fil_preds = fil_model.predict(X_validation)print("The shape of predictions obtained from xgboost : ", (trained_model_preds).shape)
print("The shape of predictions obtained from FIL : ", (fil_preds).shape)
print("Are the predictions for xgboost and FIL the same : ", array_equal(trained_model_preds, fil_preds))from dask_cuda import LocalCUDACluster
from distributed import Client, wait, get_worker
import dask.dataframe
import dask.array
import dask_cudf
from cuml import ForestInference
import timecluster = LocalCUDACluster()
client = Client(cluster)
workers = client.has_what().keys()
n_workers = len(workers)
n_partitions = n_workersrows = 1_000_000
cols = 100x = dask.array.random.random(
size=(rows, cols),
chunks=(rows//n_partitions, cols)
).astype('float32')df = dask_cudf.from_dask_dataframe(
dask.dataframe.from_array(x)
)df = df.persist()
wait(df)def worker_init(dask_worker, model_file='xgb.model'):
dask_worker.data["fil_model"] = ForestInference.load(
filename=model_file,
algo='BATCH_TREE_REORG',
output_class=True,
threshold=0.50,
model_type='xgboost'
)%%time
client.run(worker_init)def predict(input_df):
worker = get_worker()
return worker.data["fil_model"].predict(input_df)distributed_predictions = df.map_partitions(predict, meta="float")tic = time.perf_counter()
distributed_predictions.compute()
toc = time.perf_counter()
fil_inference_time = toc-tictotal_samples = len(df)
print(f' {total_samples:,} inferences in {fil_inference_time:.5f} seconds'
f' -- {int(total_samples/fil_inference_time):,} inferences per second ') | 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/notebooks/arima_demo.ipynb | import cudf
from cuml.tsa.arima import ARIMA
import cupy as cp
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import randomdef load_dataset(name, max_batch=4):
import os
pdf = pd.read_csv(os.path.join("data", "time_series", "%s.csv" % name))
return cudf.from_pandas(pdf[pdf.columns[1:max_batch+1]].astype(np.float64))def visualize(y, pred=None, pred_start=None, lower=None, upper=None):
n_obs, batch_size = y.shape
col = ["#1f77b4", "#ff7f0e"]
# Create the subplots
c = min(batch_size, 2)
r = (batch_size + c - 1) // c
fig, ax = plt.subplots(r, c, squeeze=False)
ax = ax.flatten()
# Range for the prediction
if pred is not None:
pred_start = n_obs if pred_start is None else pred_start
pred_end = pred_start + pred.shape[0]
else:
pred_end = n_obs
# Plot the data
for i in range(batch_size):
title = y.columns[i]
if pred is not None:
ax[i].plot(np.r_[pred_start:pred_end],
pred[pred.columns[i]].to_numpy(),
linestyle="--", color=col[1])
# Prediction intervals
if lower is not None and upper is not None:
ax[i].fill_between(np.r_[pred_start:pred_end],
lower[lower.columns[i]].to_numpy(),
upper[upper.columns[i]].to_numpy(),
alpha=0.2, color=col[1])
ax[i].plot(np.r_[:n_obs], y[title].to_numpy(), color=col[0])
ax[i].title.set_text(title)
ax[i].set_xlim((0, pred_end))
for i in range(batch_size, r*c):
fig.delaxes(ax[i])
fig.tight_layout()
fig.patch.set_facecolor('white')
plt.show()df_mig = load_dataset("net_migrations_auckland_by_age", 4)
visualize(df_mig)model_mig = ARIMA(df_mig, order=(0,0,2), fit_intercept=True)
model_mig.fit()fc_mig = model_mig.forecast(10)
visualize(df_mig, fc_mig)print(model_mig.get_fit_params()["ma"])
print(model_mig.ma_)print(model_mig.pack())print("log-likelihood:\n", model_mig.llf)
print("\nAkaike Information Criterion (AIC):\n", model_mig.aic)
print("\nCorrected Akaike Information Criterion (AICc):\n", model_mig.aicc)
print("\nBayesian Information Criterion (BIC):\n", model_mig.bic)df_pop = load_dataset("population_estimate")
# Fit an ARIMA(1,2,1) model
model_pop = ARIMA(df_pop, order=(1,2,1), fit_intercept=True)
model_pop.fit()
# Predict in-sample and forecast out-of-sample
pred_pop = model_pop.predict(80, 160)
visualize(df_pop, pred_pop, 80)fc_pop, lower_pop, upper_pop = model_pop.forecast(23, level=0.95)
visualize(df_pop, fc_pop, lower=lower_pop, upper=upper_pop)df_guests = load_dataset("guest_nights_by_region", 4)
# Create and fit an ARIMA(1,1,1)(1,1,1)12 model:
model_guests = ARIMA(df_guests, order=(1,1,1), seasonal_order=(1,1,1,12),
fit_intercept=False)
model_guests.fit()# Forecast
fc_guests = model_guests.forecast(40)
# Visualize after the time step 200
visualize(df_guests[200:], fc_guests)# Cut dataset to 100 observations
df_guests_missing = df_guests[:100].copy()
for title in df_guests_missing.columns:
# Missing observations at the start to simulate varying lengths
n_leading = random.randint(5, 40)
df_guests_missing[title][:n_leading]=None
# Random missing observations in the middle
missing_obs = random.choices(range(n_leading, 100), k=random.randint(5, 20))
df_guests_missing[title][missing_obs]=Nonedf_guests_missing = df_guests_missing.fillna(np.nan)# Create and fit an ARIMA(1,1,1)(1,1,1)12 model:
model_guests_missing = ARIMA(df_guests_missing, order=(1,1,1), seasonal_order=(1,1,1,12),
fit_intercept=False)
model_guests_missing.fit()# Forecast
fc_guests_missing = model_guests_missing.predict(0, 120)
visualize(df_guests_missing, fc_guests_missing, 0)nb = 4
# Generate exogenous variables and coefficients
get_sine = lambda n, period: \
np.sin(np.r_[:n] * 2 * np.pi / period + np.random.uniform(0, period))
np_exog = np.column_stack([get_sine(319, T)
for T in np.random.uniform(20, 100, 2 * nb)])
cp_exog = cp.array(np_exog)
cp_exog_coef = cp.random.uniform(20, 200, 2 * nb)
# Create dataframes for the past and future values
df_exog = cudf.DataFrame(np_exog[:279])
df_exog_fut = cudf.DataFrame(np_exog[279:])
# Add linear combination of the exogenous variables to the endogenous
df_guests_exog = df_guests.copy()
for ib in range(nb):
df_guests_exog[df_guests_exog.columns[ib]] += \
cp.matmul(cp_exog[:279, ib*2:(ib+1)*2], cp_exog_coef[ib*2:(ib+1)*2])# Create and fit an ARIMA(1,0,1)(1,1,1)12 (c) model with exogenous variables
model_guests_exog = ARIMA(endog=df_guests_exog, exog=df_exog,
order=(1,0,1), seasonal_order=(1,1,1,12),
fit_intercept=True)
model_guests_exog.fit()# Forecast
fc_guests_exog = model_guests_exog.forecast(40, exog=df_exog_fut)
# Visualize after the time step 100
visualize(df_guests_exog[100:], fc_guests_exog) | 0 |
rapidsai_public_repos/cuml/notebooks | rapidsai_public_repos/cuml/notebooks/tools/hdbscan_soft_clustering_benchmark.ipynb | import os
import time
import json
from datetime import datetime
import numpy as np
import pandas as pd
import cuml
import hdbscan
from sentence_transformers import SentenceTransformermillion_articles_path = "/home/cjnolet/Downloads/archive.zip"DATE_TAG = datetime.now().strftime("%Y-%m-%d")
outpath = f"hdbscan-apmv-benchmark-results-{DATE_TAG}.json1"
if os.path.exists(outpath):
os.remove(outpath) benchmark_soft_cluster = True
MIN_SAMPLES = 50
MIN_CLUSTER_SIZE = 5
BACKENDS = {
"cuml": cuml.cluster.hdbscan,
"hdbscan": hdbscan
}
SIZES = [
25000,
50000,
100000,
200000,
400000,
800000,
1600000
]%%time
clusterer = cuml.cluster.hdbscan.HDBSCAN(
prediction_data=True
)
clusterer.fit(np.arange(1000).reshape(50,20))class Timer:
def __enter__(self):
self.tick = time.time()
return self
def __exit__(self, *args, **kwargs):
self.tock = time.time()
self.elapsed = self.tock - self.tickdf = pd.read_csv(million_articles_path)model = SentenceTransformer('all-MiniLM-L6-v2')
embeddings = model.encode(df.headline_text)
umap = cuml.manifold.UMAP(n_components=15, n_neighbors=15, min_dist=0.0, random_state=12)
reduced_data = umap.fit_transform(embeddings)
np.random.shuffle(reduced_data)k = reduced_data.shape[1]for n in SIZES:
for library, backend in BACKENDS.items():
bench_data = reduced_data[:n,:]
benchmark_payload = {}
benchmark_payload["backend"] = library
with Timer() as fit_timer:
clusterer = backend.HDBSCAN(
min_samples=MIN_SAMPLES,
min_cluster_size=MIN_CLUSTER_SIZE,
metric='euclidean',
prediction_data=True
)
clusterer.fit(bench_data)
nclusters = len(np.unique(clusterer.labels_))
benchmark_payload["fit_time"] = fit_timer.elapsed
if benchmark_soft_cluster:
with Timer() as membership_timer:
soft_clusters = backend.all_points_membership_vectors(clusterer)
benchmark_payload["membership_time"] = membership_timer.elapsed
benchmark_payload["ncols"] = k
benchmark_payload["nrows"] = bench_data.shape[0]
benchmark_payload["min_samples"] = MIN_SAMPLES
benchmark_payload["min_cluster_size"] = MIN_CLUSTER_SIZE
benchmark_payload["num_clusters"] = nclusters
print(benchmark_payload)
with open(outpath, "a") as fh:
fh.write(json.dumps(benchmark_payload))
fh.write("\n")
time.sleep(1) | 0 |
rapidsai_public_repos/cuml/notebooks | rapidsai_public_repos/cuml/notebooks/tools/cuml_benchmarks.ipynb | import cuml
import pandas as pd
from cuml.benchmark.runners import SpeedupComparisonRunner
from cuml.benchmark.algorithms import algorithm_by_name
import warnings
warnings.filterwarnings('ignore', 'Expected column ')
print(cuml.__version__)N_REPS = 3 # Number of times each test is repeated
DATA_NEIGHBORHOODS = "blobs"
DATA_CLASSIFICATION = "classification"
DATA_REGRESSION = "regression"
INPUT_TYPE = "numpy"
benchmark_results = []SMALL_ROW_SIZES = [2**x for x in range(14, 17)]
LARGE_ROW_SIZES = [2**x for x in range(18, 24, 2)]
SKINNY_FEATURES = [32, 256]
WIDE_FEATURES = [1000, 10000]
VERBOSE=True
RUN_CPU=Truedef enrich_result(algorithm, runner, result):
result["algo"] = algorithm
result["dataset_name"] = runner.dataset_name
result["input_type"] = runner.input_type
return result
def execute_benchmark(algorithm, runner, verbose=VERBOSE, run_cpu=RUN_CPU, **kwargs):
results = runner.run(algorithm_by_name(algorithm), verbose=verbose, run_cpu=run_cpu, **kwargs)
results = [enrich_result(algorithm, runner, result) for result in results]
benchmark_results.extend(results)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS,
)
execute_benchmark("NearestNeighbors", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("KNeighborsClassifier", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("KNeighborsRegressor", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("DBSCAN", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type="numpy",
n_reps=N_REPS
)
execute_benchmark("KMeans", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("UMAP-Unsupervised", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("UMAP-Supervised", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
# Due to extreme high runtime, the CPU benchmark
# is disabled. Use run_cpu=True to re-enable.
execute_benchmark("TSNE", runner, run_cpu=True)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("LinearRegression", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("LogisticRegression", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("Ridge", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("Lasso", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("ElasticNet", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("MBSGDClassifier", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("PCA", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("TSVD", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("RandomForestClassifier", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("RandomForestRegressor", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("FIL", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("Sparse-FIL-SKL", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("GaussianRandomProjection", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=WIDE_FEATURES,
dataset_name=DATA_NEIGHBORHOODS,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("SparseRandomProjection", runner)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
# Due to extreme high runtime, the CPU benchmark
# is disabled. Use run_cpu=True to re-enable.
execute_benchmark("SVC-Linear", runner, run_cpu=True)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_CLASSIFICATION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
# Due to extreme high runtime, the CPU benchmark
# is disabled. Use run_cpu=True to re-enable.
execute_benchmark("SVC-RBF", runner, run_cpu=True)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
# Due to extreme high runtime, the CPU benchmark
# is disabled. Use run_cpu=True to re-enable.
execute_benchmark("SVR-Linear", runner, run_cpu=False)runner = cuml.benchmark.runners.SpeedupComparisonRunner(
bench_rows=SMALL_ROW_SIZES,
bench_dims=SKINNY_FEATURES,
dataset_name=DATA_REGRESSION,
input_type=INPUT_TYPE,
n_reps=N_REPS
)
execute_benchmark("SVR-RBF", runner)%matplotlib inlinedf = pd.DataFrame(benchmark_results)def chart_single_algo_speedup(df, algorithm):
df = df.loc[df.algo == algorithm]
df = df.pivot(index="n_samples", columns="n_features", values="speedup")
axes = df.plot.bar(title="%s Speedup" % algorithm)def chart_all_algo_speedup(df):
df = df[["algo", "n_samples", "speedup"]].groupby(["algo", "n_samples"]).mean()
df.plot.bar()chart_single_algo_speedup(df, "LinearRegression")chart_all_algo_speedup(df)df.to_csv("benchmark_results.csv") | 0 |
rapidsai_public_repos/cuml/notebooks/data | rapidsai_public_repos/cuml/notebooks/data/time_series/population_estimate.csv | "Year","Male","Female"
1875,238.1,183.2
1876,250.4,194.2
1877,252.5,201.6
1878,264.6,211.5
1879,281.8,225.5
1880,292.3,236.2
1881,299.4,245.7
1882,307.7,254.1
1883,319.0,265.9
1884,331.0,277.4
1885,336.5,282.8
1886,340.5,290.9
1887,347.4,297.9
1888,347.8,301.6
1889,351.4,306.6
1890,355.4,312.1
1891,359.0,317.0
1892,368.0,324.4
1893,380.5,333.8
1894,386.6,341.5
1895,392.6,348.1
1896,398.7,355.4
1897,406.4,362.5
1898,413.8,369.5
1899,420.4,376.0
1900,425.3,382.8
1901,437.3,393.5
1902,449.0,402.0
1903,462.8,412.9
1904,477.1,423.6
1905,490.5,435.1
1906,507.2,449.3
1907,518.2,459.0
1908,535.9,472.5
1909,545.9,484.7
1910,555.5,494.9
1911,566.2,509.0
1912,579.7,522.8
1913,595.6,538.9
1914,594.6,551.2
1915,590.4,562.2
1916,575.8,574.5
1917,563.3,584.1
1918,568.0,590.2
1919,627.8,599.4
1920,643.7,613.9
1921,660.9,631.8
1922,673.8,645.1
1923,686.0,657.1
1924,700.0,670.4
1925,716.4,684.9
1926,730.6,699.0
1927,740.8,709.3
1928,749.1,717.8
1929,758.5,727.1
1930,767.9,738.9
1931,775.6,747.1
1932,780.9,753.8
1933,786.4,760.8
1934,792.0,766.4
1935,796.7,773.0
1936,804.3,780.3
1937,813.1,788.7
1938,821.7,796.6
1939,832.8,808.8
1940,813.0,820.6
1941,799.2,832.0
1942,793.7,842.7
1943,790.8,851.2
1944,813.6,862.7
1945,855.9,872.6
1946,893.3,891.1
1947,913.6,909.5
1948,934.3,927.6
1949,949.4,942.6
1950,967.3,960.3
1951,989.5,981.0
1952,1017.9,1006.7
1953,1043.1,1031.6
1954,1065.5,1052.9
1955,1089.1,1075.7
1956,1111.2,1098.0
1957,1137.8,1125.0
1958,1165.6,1150.3
1959,1186.1,1173.7
1960,1207.9,1195.6
1961,1238.0,1223.3
1962,1264.1,1251.7
1963,1288.4,1278.5
1964,1313.0,1304.0
1965,1336.7,1327.1
1966,1360.3,1351.0
1967,1373.6,1371.4
1968,1385.4,1387.6
1969,1399.8,1404.2
1970,1425.4,1426.7
1971,1447.4,1451.1
1972,1477.8,1481.9
1973,1510.0,1514.9
1974,1543.9,1548.0
1975,1567.6,1576.1
1976,1578.1,1585.3
1977,1578.4,1588.0
1978,1575.9,1589.3
1979,1573.8,1590.1
1980,1581.5,1594.9
1981,1586.9,1607.6
1982,1601.9,1624.9
1983,1620.7,1644.1
1984,1632.2,1660.8
1985,1636.8,1666.3
1986,1639.2,1674.3
1987,1652.9,1689.2
1988,1649.7,1695.5
1989,1659.7,1710.1
1990,1681.9,1728.5
1991,1730.0,1786.0
1992,1749.1,1803.1
1993,1772.5,1825.4
1994,1797.8,1850.4
1995,1828.0,1878.7
1996,1855.4,1906.9
1997,1872.9,1929.7
1998,1883.3,1945.9
1999,1891.7,1959.5
2000,1900.4,1972.6
2001,1920.5,1995.7
2002,1956.7,2032.9
2003,1991.8,2069.8
2004,2016.2,2098.1
2005,2037.7,2123.3
2006,2061.8,2149.6
2007,2083.4,2169.2
2008,2104.1,2187.4
2009,2134.0,2213.2
2010,2158.2,2234.9
2011,2174.3,2248.4 | 0 |
rapidsai_public_repos/cuml/notebooks/data | rapidsai_public_repos/cuml/notebooks/data/time_series/README.md | # Time Series datasets
This folder contains various datasets to demonstrate our time series models.
**Disclaimer:** the data has been filtered and organized in a way that makes it suitable to test times series models. If you wish to use this data for other purposes, please take the data from its source.
## From Statistics New Zealand
**Source:** [Stats NZ](http://archive.stats.govt.nz/infoshare/) and licensed by Stats NZ for re-use under the Creative Commons Attribution 4.0 International licence.
- `guest_nights_by_region.csv`: Guest nights (thousands) in 12 regions, monthly 1996-2019.
- `net_migrations_auckland_by_age.csv`: Net migrations in Auckland by age range (from 0 to 49) per year, 1991-2010.
- `population_estimate.csv`: Population estimates (thousands) per year, 1875-2011.
| 0 |
rapidsai_public_repos/cuml/notebooks/data | rapidsai_public_repos/cuml/notebooks/data/time_series/net_migrations_auckland_by_age.csv | Year,5-9 years,10-14 years,15-19 years,30-34 years,35-39 years,40-44 years,45-49 years
1991,357,471,498,148,318,293,170
1992,361,483,511,251,477,396,174
1993,574,793,659,714,673,605,343
1994,974,1037,918,1234,1176,1037,568
1995,1384,1309,1132,2103,1586,1204,690
1996,941,873,811,1581,1213,971,603
1997,574,663,580,798,595,568,345
1998,404,379,277,188,343,343,241
1999,437,386,564,373,447,362,161
2000,210,287,859,50,-8,130,25
2001,537,713,1944,868,531,456,279
2002,989,1118,2514,1893,1351,1098,611
2003,852,784,1860,1615,1158,868,534
2004,439,524,1057,918,624,552,284
2005,436,436,880,734,476,359,238
2006,401,437,931,944,642,428,168
2007,356,335,987,807,411,346,126
2008,162,255,1102,632,295,125,112
2009,259,306,1301,661,343,241,142
2010,151,221,1234,483,141,118,68
| 0 |
rapidsai_public_repos/cuml/notebooks/data | rapidsai_public_repos/cuml/notebooks/data/time_series/guest_nights_by_region.csv | ,Northland,Auckland,Waikato,Bay of Plenty,"Hawke's Bay, Gisborne","Taranaki, Manawatu, Wanganui",Wellington,"Nelson, Marlborough, Tasman",Canterbury,West Coast,Otago,Southland
1996M07,66,257,124,159,49,93,111,52,209,27,175,21
1996M08,58,266,111,138,45,89,105,54,210,28,211,23
1996M09,79,264,140,174,62,115,113,79,256,45,214,31
1996M10,96,280,147,177,61,111,119,79,256,57,194,41
1996M11,104,334,159,199,66,112,132,100,324,64,212,54
1996M12,185,337,219,257,87,111,123,171,364,70,262,66
1997M01,279,386,343,419,145,151,142,279,440,96,360,76
1997M02,158,362,205,238,91,122,144,165,363,83,286,78
1997M03,147,377,225,251,90,129,145,150,348,81,282,73
1997M04,108,302,151,198,73,104,119,105,278,57,213,45
1997M05,73,257,112,142,50,87,104,68,192,32,138,29
1997M06,55,224,102,119,45,71,92,56,159,23,112,19
1997M07,70,259,137,164,50,101,102,63,213,27,177,24
1997M08,62,266,113,134,48,100,95,63,202,26,215,22
1997M09,70,239,121,149,52,106,103,67,211,38,182,27
1997M10,102,292,172,210,74,132,127,87,288,55,199,46
1997M11,105,303,152,188,64,108,125,101,300,60,208,54
1997M12,218,301,249,258,91,104,115,179,358,71,244,67
1998M01,380,340,381,429,155,147,137,303,447,92,360,85
1998M02,158,349,219,252,92,115,142,178,367,83,259,77
1998M03,134,339,193,205,82,112,147,147,327,73,246,62
1998M04,130,291,193,216,83,113,135,123,301,64,246,54
1998M05,75,255,129,148,54,85,119,74,189,36,136,34
1998M06,53,224,108,118,39,69,98,53,145,23,104,19
1998M07,60,267,133,170,51,83,137,66,206,30,192,22
1998M08,58,251,115,140,46,81,115,57,201,30,223,24
1998M09,66,253,139,160,56,94,123,72,211,42,208,31
1998M10,99,307,170,218,77,113,146,95,292,62,206,44
1998M11,107,330,154,191,65,97,136,109,303,70,227,57
1998M12,187,312,250,270,90,99,134,189,344,86,271,60
1999M01,280,367,381,452,149,138,163,328,454,116,432,87
1999M02,145,360,205,234,88,111,146,182,358,97,294,82
1999M03,129,379,211,208,84,115,157,158,333,85,273,79
1999M04,119,309,187,255,81,115,153,129,317,71,244,58
1999M05,66,266,117,150,46,76,120,69,195,35,141,32
1999M06,62,253,136,156,51,84,127,67,190,34,126,25
1999M07,61,302,140,176,54,88,134,62,216,33,225,25
1999M08,59,281,119,146,50,98,114,62,219,29,249,24
1999M09,81,326,158,195,62,130,142,85,279,50,256,32
1999M10,99,335,178,205,70,103,138,94,302,58,216,44
1999M11,110,396,170,209,72,96,144,120,338,76,254,60
1999M12,176,368,251,282,94,102,144,181,340,84,282,60
2000M01,283,459,405,469,157,151,173,316,430,118,404,82
2000M02,149,436,241,251,95,114,159,192,383,109,333,86
2000M03,138,393,220,230,89,116,180,166,362,98,292,74
2000M04,136,355,223,246,92,112,162,145,357,89,302,65
2000M05,67,291,124,146,48,81,111,75,216,39,163,35
2000M06,56,281,134,145,49,80,110,67,194,32,141,26
2000M07,60,317,157,183,58,106,131,77,248,43,257,28
2000M08,58,288,135,156,50,108,138,72,227,38,286,28
2000M09,74,284,167,174,63,119,137,86,254,49,261,37
2000M10,102,348,192,196,77,111,146,107,314,67,240,47
2000M11,119,400,188,201,75,106,170,124,361,89,283,69
2000M12,190,401,291,296,107,113,163,204,408,101,348,74
2001M01,289,483,403,499,170,152,185,342,501,138,486,93
2001M02,152,409,235,259,108,118,177,210,412,117,360,89
2001M03,144,433,240,259,104,116,187,180,413,115,338,87
2001M04,124,354,203,249,95,114,158,143,358,87,296,63
2001M05,68,317,126,153,53,84,127,79,231,51,188,42
2001M06,59,298,140,162,54,86,130,71,210,40,155,27
2001M07,65,340,160,197,65,112,146,82,266,46,291,32
2001M08,63,339,142,159,53,116,132,80,278,43,322,31
2001M09,76,335,163,184,70,126,152,96,290,57,276,39
2001M10,101,380,196,214,80,118,153,113,332,78,257,54
2001M11,121,411,195,203,81,109,174,135,367,91,272,69
2001M12,210,437,280,306,118,120,174,216,427,104,361,78
2002M01,314,521,400,490,187,159,192,329,516,133,501,98
2002M02,167,462,251,270,115,127,194,221,443,115,370,95
2002M03,179,507,274,301,125,153,206,208,511,121,385,98
2002M04,124,402,209,227,87,104,161,141,350,87,302,75
2002M05,81,364,149,174,61,91,138,83,251,51,194,45
2002M06,64,333,150,166,59,91,134,74,222,41,172,32
2002M07,69,370,175,201,68,119,158,77,297,51,305,36
2002M08,68,369,154,168,61,124,137,77,277,43,317,34
2002M09,80,367,168,187,75,133,147,99,310,58,264,42
2002M10,104,437,199,213,82,135,170,112,367,79,251,57
2002M11,120,505,210,222,81,115,181,140,408,101,299,80
2002M12,204,479,287,310,120,120,168,230,447,113,363,85
2003M01,318,543,393,462,188,165,191,340,547,147,486,104
2003M02,171,503,279,269,116,136,204,227,482,131,390,105
2003M03,155,510,267,245,111,149,200,201,462,131,369,99
2003M04,148,411,252,260,111,136,176,169,379,109,322,78
2003M05,85,356,158,167,67,101,156,93,248,57,190,45
2003M06,64,307,142,158,59,83,142,76,214,42,159,31
2003M07,75,370,181,210,75,131,154,81,286,53,320,39
2003M08,70,366,157,169,65,126,142,82,269,48,301,36
2003M09,90,367,177,205,76,140,165,93,315,63,287,47
2003M10,110,406,195,227,89,133,172,114,375,82,260,60
2003M11,123,472,214,227,89,113,189,139,413,106,309,83
2003M12,214,486,285,309,142,131,182,229,482,130,397,98
2004M01,322,556,406,502,223,181,208,331,579,165,514,111
2004M02,177,492,273,281,135,144,214,219,513,149,399,112
2004M03,159,515,266,265,126,146,212,197,504,141,368,103
2004M04,142,448,242,268,110,132,182,156,433,117,341,84
2004M05,84,382,148,176,69,98,150,88,290,60,204,43
2004M06,77,350,165,177,65,102,145,77,256,46,203,32
2004M07,85,387,187,215,73,158,171,84,319,53,321,37
2004M08,71,371,159,185,65,136,145,78,293,51,324,37
2004M09,90,380,186,216,78,154,167,98,355,77,317,47
2004M10,109,434,205,230,86,141,169,107,383,89,274,59
2004M11,130,467,219,240,92,133,193,150,459,118,326,87
2004M12,218,479,297,319,141,138,194,228,498,130,386,99
2005M01,329,569,415,535,228,186,218,358,635,167,518,121
2005M02,172,489,269,288,128,157,220,223,522,152,414,117
2005M03,187,531,301,312,134,166,236,217,557,156,421,117
2005M04,137,449,248,256,103,134,203,145,425,108,323,80
2005M05,83,369,150,181,67,100,158,86,274,63,218,42
2005M06,73,351,163,183,67,115,166,80,302,55,221,35
2005M07,84,415,193,222,73,147,191,82,310,57,337,36
2005M08,73,361,157,173,66,147,158,80,282,50,336,38
2005M09,87,383,185,197,79,151,174,91,325,66,327,44
2005M10,111,412,209,230,102,145,187,116,387,94,283,58
2005M11,127,463,212,237,90,129,205,148,429,117,338,83
2005M12,195,457,280,313,141,142,195,217,469,126,400,88
2006M01,312,526,395,488,225,194,228,377,616,169,550,119
2006M02,184,483,274,301,136,150,234,241,524,152,434,115
2006M03,170,497,277,274,133,152,242,203,508,144,404,105
2006M04,149,430,244,265,113,127,209,157,443,118,372,83
2006M05,82,365,148,177,65,102,170,86,289,63,229,44
2006M06,72,346,162,172,67,103,158,75,249,51,202,31
2006M07,84,356,189,204,72,154,188,81,306,58,332,35
2006M08,73,373,158,189,74,150,168,78,281,54,348,36
2006M09,91,393,188,208,77,169,190,92,341,69,312,43
2006M10,126,455,203,240,102,140,206,121,395,96,294,62
2006M11,135,488,240,242,98,123,228,153,445,118,343,85
2006M12,205,477,282,340,153,139,208,227,496,132,412,91
2007M01,357,557,402,506,231,189,246,364,605,173,555,115
2007M02,199,515,295,313,134,172,260,246,544,169,455,118
2007M03,179,564,294,304,138,163,264,213,517,147,443,115
2007M04,141,458,246,281,117,133,215,167,447,115,378,81
2007M05,89,377,162,193,75,102,180,99,293,68,238,48
2007M06,75,373,161,178,72,104,171,85,272,55,213,35
2007M07,78,413,185,210,77,146,184,86,336,64,373,36
2007M08,75,414,171,174,74,150,177,89,321,59,371,37
2007M09,92,426,195,226,81,156,202,94,352,74,322,45
2007M10,114,451,198,239,103,131,204,117,406,91,297,59
2007M11,126,537,210,252,96,133,228,152,472,116,346,84
2007M12,210,480,262,349,151,143,219,232,510,132,407,91
2008M01,349,588,400,529,216,196,253,378,649,173,556,112
2008M02,197,557,281,336,145,163,277,265,562,168,466,122
2008M03,190,564,289,319,152,177,295,244,593,163,471,116
2008M04,132,472,221,256,104,130,233,157,432,114,352,80
2008M05,89,416,165,193,75,107,202,100,315,68,236,50
2008M06,67,372,140,164,58,97,174,84,270,48,194,31
2008M07,69,396,165,203,71,149,194,83,347,59,366,37
2008M08,58,415,161,172,61,149,172,80,316,57,353,35
2008M09,83,413,176,189,78,151,204,93,349,69,298,45
2008M10,112,477,215,238,105,152,237,117,416,97,288,59
2008M11,122,506,210,220,100,133,235,139,458,114,319,83
2008M12,192,486,278,325,148,137,212,226,491,126,391,92
2009M01,313,555,394,510,212,204,240,362,616,170,561,115
2009M02,182,515,270,300,141,155,250,250,530,150,420,113
2009M03,165,534,269,270,141,155,270,207,531,138,414,107
2009M04,151,443,257,277,124,143,238,165,453,113,357,80
2009M05,91,382,161,191,78,111,206,103,318,75,239,49
2009M06,61,333,141,145,56,98,169,73,252,50,211,29
2009M07,71,421,175,195,72,159,193,82,351,61,396,36
2009M08,65,383,156,162,65,146,174,81,327,56,374,37
2009M09,85,413,181,199,79,156,211,91,360,73,317,47
2009M10,116,482,211,233,99,139,236,121,426,97,300,65
2009M11,126,488,211,223,98,120,232,146,460,116,342,89
2009M12,208,491,281,348,136,148,218,235,516,135,430,96
2010M01,332,568,435,522,219,193,263,393,647,170,579,118
2010M02,183,524,273,303,135,146,267,244,536,153,441,120
2010M03,165,539,270,290,135,159,267,215,542,142,441,110
2010M04,146,468,237,276,121,139,222,163,469,112,386,83
2010M05,87,404,148,183,66,98,184,86,291,62,227,44
2010M06,66,356,147,180,61,101,170,70,265,47,234,33
2010M07,72,416,172,218,70,144,190,77,350,59,408,39
2010M08,64,427,143,172,62,129,161,78,324,50,382,33
2010M09,78,438,165,206,73,137,205,90,361,64,324,42
2010M10,120,491,215,238,96,138,226,114,408,88,292,56
2010M11,118,545,219,242,95,130,224,145,465,109,330,80
2010M12,202,515,277,321,132,137,226,228,498,120,420,89
2011M01,327,611,418,485,204,187,249,381,641,163,558,111
2011M02,172,556,273,295,138,152,265,238,461,152,465,109
2011M03,160,582,269,280,123,165,279,204,377,131,427,98
2011M04,150,508,253,272,104,141,232,161,337,104,379,74
2011M05,85,459,146,188,67,98,197,93,244,56,221,44
2011M06,67,401,154,181,62,94,187,80,219,49,210,32
2011M07,82,485,181,231,63,138,220,90,280,54,399,36
2011M08,70,492,163,214,71,134,217,93,269,47,393,33
2011M09,85,488,183,207,86,134,221,91,265,59,323,48
2011M10,108,557,221,230,99,142,238,128,311,78,285,48
2011M11,123,536,227,246,98,127,243,149,372,107,358,77
2011M12,196,578,290,321,133,143,220,220,427,123,470,87
2012M01,321,612,393,437,186,197,254,354,519,161,608,109
2012M02,180,582,287,280,136,166,271,231,402,140,436,97
2012M03,142,620,274,261,123,175,266,195,392,123,414,86
2012M04,126,537,240,263,90,137,209,151,343,103,391,69
2012M05,80,458,160,172,66,99,188,92,242,57,237,42
2012M06,67,453,167,176,61,98,176,80,225,44,230,32
2012M07,71,448,169,191,60,136,189,84,271,57,398,35
2012M08,60,476,146,169,54,118,172,76,262,46,378,35
2012M09,79,470,173,193,68,131,213,91,284,59,311,39
2012M10,112,574,213,235,97,133,236,123,348,86,317,53
2012M11,117,595,219,224,98,125,247,138,366,100,330,70
2012M12,194,602,290,311,133,141,247,221,435,130,492,82
2013M01,315,636,429,442,180,183,268,347,528,135,577,105
2013M02,168,604,281,310,128,148,257,234,420,142,462,104
2013M03,170,655,315,312,138,179,275,216,436,130,476,96
2013M04,119,546,222,247,95,122,223,142,353,97,388,69
2013M05,83,497,158,192,70,101,216,103,275,56,250,42
2013M06,69,442,151,180,58,96,195,82,246,43,262,30
2013M07,70,489,186,212,68,152,212,85,290,53,427,34
2013M08,64,490,159,188,57,131,189,85,273,48,420,33
2013M09,77,522,185,215,72,139,195,92,298,57,323,40
2013M10,108,571,223,242,96,138,239,116,370,76,330,55
2013M11,116,616,227,254,96,142,243,151,405,107,366,81
2013M12,206,601,312,341,133,157,241,224,446,136,491,97
2014M01,345,669,436,495,185,210,256,364,562,159,603,115
2014M02,177,652,305,313,126,160,264,259,478,153,524,103
2014M03,149,639,289,283,125,166,265,215,459,133,476,105
2014M04,155,566,269,297,109,135,242,167,410,115,470,82
2014M05,97,538,182,210,71,109,212,107,303,59,279,48
2014M06,69,473,160,168,57,90,182,78,246,42,277,31
2014M07,75,505,188,221,69,138,208,88,315,57,469,40
2014M08,70,525,167,188,60,124,200,77,290,51,420,38
2014M09,85,557,191,232,75,141,224,91,300,70,339,48
2014M10,120,595,242,272,93,143,254,121,385,93,369,67
2014M11,133,641,239,265,102,136,253,157,416,118,420,91
2014M12,230,632,326,354,137,169,248,233,498,151,538,112
2015M01,363,689,467,488,185,207,276,384,583,178,628,118
2015M02,200,660,323,325,132,169,274,271,510,170,554,116
2015M03,164,676,311,309,141,170,274,221,505,151,512,119
2015M04,148,599,280,303,123,141,265,163,428,117,467,90
2015M05,91,536,190,229,79,118,231,105,317,69,321,52
2015M06,66,470,160,179,64,107,187,80,258,44,286,34
2015M07,75,518,207,238,70,148,227,93,329,58,460,43
2015M08,66,537,177,195,60,141,204,91,301,52,434,42
2015M09,95,562,209,239,72,144,222,99,332,74,378,51
2015M10,124,588,251,281,98,147,263,130,398,95,391,69
2015M11,132,633,256,290,97,143,271,162,436,124,466,97
2015M12,231,650,352,381,145,171,272,252,546,149,588,113
2016M01,352,715,469,514,200,216,300,390,649,188,710,141
2016M02,201,679,345,354,147,190,303,289,544,183,595,136
2016M03,213,689,351,363,150,193,297,257,549,172,606,148
2016M04,144,634,273,313,127,149,265,173,428,126,503,106
2016M05,89,560,177,226,83,105,216,112,300,67,337,58
2016M06,78,509,192,225,74,108,209,90,266,51,319,40
2016M07,92,561,217,256,86,145,236,107,345,60,485,45
2016M08,83,567,198,225,73,143,218,101,302,54,443,42
2016M09,100,575,229,264,86,151,239,113,345,76,402,55
2016M10,131,641,275,294,108,146,270,138,419,102,409,71
2016M11,148,642,288,307,118,146,259,178,442,133,494,110
2016M12,241,662,383,410,161,188,275,265,509,164,603,122
2017M01,364,695,497,541,220,222,297,410,598,195,715,146
2017M02,222,663,357,360,162,190,286,279,525,173,592,139
2017M03,188,694,341,356,154,191,304,251,499,167,583,138
2017M04,168,645,309,346,142,162,265,192,443,131,545,114
2017M05,107,578,193,246,96,120,229,120,326,71,353,64
2017M06,83,519,202,243,85,122,230,103,289,50,340,44
2017M07,91,561,215,270,89,153,238,106,354,61,489,46
2017M08,83,537,187,226,79,138,204,114,316,62,449,45
2017M09,96,552,220,268,94,160,237,121,361,80,423,57
2017M10,146,601,283,321,122,168,271,154,451,107,439,85
2017M11,151,658,300,324,124,158,274,187,475,137,501,117
2017M12,253,661,396,424,168,188,279,264,572,165,632,138
2018M01,369,706,501,550,211,223,302,379,661,189,723,155
2018M02,213,663,356,365,141,181,290,274,590,174,630,153
2018M03,213,705,371,400,148,205,315,265,596,175,630,154
2018M04,154,598,287,332,126,159,272,184,507,133,558,121
2018M05,109,558,198,252,95,127,231,117,345,72,369,67
2018M06,82,489,194,238,90,123,220,91,301,56,338,47
2018M07,91,548,223,251,89,169,235,101,375,61,483,52
2018M08,87,569,203,223,85,149,217,93,345,56,451,47
2018M09,97,585,228,264,98,160,253,114,371,74,439,64
2018M10,143,644,287,320,121,177,276,166,467,106,473,87
2018M11,155,693,292,322,122,170,278,180,508,140,552,123
2018M12,254,669,403,409,156,194,287,271,600,163,650,144
2019M01,366,726,530,519,213,226,306,376,669,176,708,155
2019M02,207,664,352,355,145,191,296,278,592,171,610,153
2019M03,192,699,367,375,159,202,321,234,570,150,594,145
2019M04,180,616,319,372,141,175,287,198,525,117,556,119
2019M05,109,570,206,256,102,125,243,116,345,70,356,66
2019M06,82,508,200,243,91,122,228,96,301,52,330,46
2019M07,91,559,222,270,97,163,256,107,354,55,472,53
2019M08,91,589,204,231,91,151,242,102,348,53,465,51
2019M09,97,619,233,260,105,172,239,116,369,65,430,64
| 0 |
rapidsai_public_repos/cuml/notebooks/data | rapidsai_public_repos/cuml/notebooks/data/weather/noaa_rdu.csv | date;temperaturemin;temperaturemax;precipitation;snowfall;snowdepth;avgwindspeed;fastest2minwinddir;fastest2minwindspeed;fastest5secwinddir;fastest5secwindspeed;fog;fogheavy;mist;rain;fogground;ice;glaze;drizzle;snow;freezingrain;smokehaze;thunder;highwind;hail;blowingsnow;dust;freezingfog
2015-04-08;62.1;84.0;0.0;0.0;0.0;5.82;40;29.97;30;38.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-04-20;63.0;78.1;0.28;0.0;0.0;11.86;180;21.92;170;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-04-26;45.0;54.0;0.02;0.0;0.0;5.82;50;12.97;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-28;39.0;69.1;0.0;0.0;0.0;2.68;40;12.08;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-03;46.9;79.0;0.0;0.0;0.0;2.68;200;12.08;210;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-23;48.0;80.1;0.0;0.0;0.0;2.91;50;14.99;80;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-27;69.1;87.1;0.3;0.0;0.0;6.71;180;17.0;210;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-05-31;69.1;89.1;0.0;0.0;0.0;6.93;170;12.97;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-09;66.9;89.1;0.31;0.0;0.0;7.61;230;18.12;260;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-13;73.9;95.0;0.0;0.0;0.0;4.92;40;10.07;310;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-22;70.0;96.1;0.0;0.0;0.0;2.24;210;10.07;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-28;64.0;84.0;0.0;0.0;0.0;5.82;230;16.11;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-16;72.0;86.0;0.0;0.0;0.0;6.71;40;16.11;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-25;64.0;88.0;0.0;0.0;0.0;2.24;130;10.07;150;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-26;66.0;89.1;0.0;0.0;0.0;3.13;170;8.95;130;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-27;72.0;90.0;0.0;0.0;0.0;4.25;130;10.07;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-02;64.9;90.0;0.0;0.0;0.0;3.58;50;12.08;40;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-06;71.1;95.0;1.68;0.0;0.0;2.68;230;25.95;220;31.09;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-08-19;72.0;89.1;0.19;0.0;0.0;6.49;190;21.92;180;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-08-21;70.0;88.0;0.0;0.0;0.0;5.59;40;16.11;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-23;61.0;87.1;0.0;0.0;0.0;1.34;170;8.95;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-09;71.1;91.0;0.21;0.0;0.0;6.04;230;25.95;240;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-09-12;68.0;78.1;0.34;0.0;0.0;6.26;260;18.12;270;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-13;55.0;75.9;0.0;0.0;0.0;4.25;310;14.09;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-17;60.1;84.0;0.0;0.0;0.0;1.57;90;8.95;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-20;62.1;86.0;0.0;0.0;0.0;4.7;30;12.97;60;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-24;60.1;75.9;0.2;0.0;0.0;9.17;50;18.12;60;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-27;64.0;77.0;0.03;0.0;0.0;10.96;40;18.12;40;25.95;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-10-01;57.9;66.0;0.34;0.0;0.0;10.74;50;19.91;50;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-03;53.1;68.0;1.23;0.0;0.0;12.08;50;19.91;40;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-17;39.0;66.9;0.0;0.0;0.0;3.13;350;12.08;340;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-21;37.9;75.9;0.0;0.0;0.0;1.34;230;10.07;240;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-25;55.9;77.0;0.0;0.0;0.0;3.8;230;12.97;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-07;59.0;72.0;0.54;0.0;0.0;5.37;230;17.0;340;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-10;48.0;69.1;0.22;0.0;0.0;1.79;290;10.07;320;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-12;45.0;77.0;0.0;0.0;0.0;7.61;230;23.94;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-13;44.1;66.0;0.0;0.0;0.0;5.82;300;16.11;270;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-15;31.1;64.0;0.0;0.0;0.0;0.67;210;6.93;220;8.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-17;37.9;66.9;0.0;0.0;0.0;4.25;90;14.09;90;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-18;53.1;72.0;0.0;0.0;0.0;9.4;130;19.91;140;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-29;48.9;73.9;0.13;0.0;0.0;2.01;80;12.08;90;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-03;39.0;57.9;0.0;0.0;0.0;4.25;310;12.97;340;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-04;33.1;54.0;0.0;0.0;0.0;2.01;30;10.07;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-09;42.1;64.0;0.0;0.0;0.0;4.7;230;16.11;230;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-10;44.1;66.9;0.0;0.0;0.0;3.58;220;12.08;220;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-18;37.0;59.0;0.16;0.0;0.0;6.26;300;16.11;310;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-24;66.0;77.0;0.04;0.0;0.0;12.75;220;23.04;200;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-25;64.9;73.9;0.0;0.0;0.0;8.05;230;17.0;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-26;63.0;73.9;0.01;0.0;0.0;2.91;190;8.95;210;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-03;31.1;53.1;0.0;0.0;0.0;3.36;260;10.07;260;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-10;37.0;63.0;0.05;0.0;0.0;11.86;240;25.05;240;36.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-13;27.1;43.0;0.0;0.0;0.0;3.36;240;12.08;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-18;22.1;35.1;0.0;0.0;0.0;4.03;300;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-24;28.2;46.9;0.0;0.0;1.18;2.46;320;10.07;310;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-26;35.1;61.0;0.0;0.0;0.0;6.26;230;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-30;26.2;55.9;0.0;0.0;0.0;5.37;230;14.99;200;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-01;46.9;72.0;0.0;0.0;0.0;9.17;240;21.03;240;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-03;51.1;72.0;1.26;0.0;0.0;10.51;190;23.94;180;36.01;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-07;37.0;44.1;0.0;0.0;0.0;6.93;20;14.99;20;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-11;19.2;41.0;0.0;0.0;0.0;5.82;280;16.11;260;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-13;21.2;34.0;0.0;0.0;0.0;6.04;300;17.0;280;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-16;35.1;60.1;1.16;0.0;0.0;8.05;170;27.96;160;38.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-21;45.0;71.1;0.04;0.0;0.0;8.5;240;23.04;230;29.97;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-23;43.0;46.0;0.19;0.0;0.0;6.26;60;12.97;60;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-28;31.1;66.9;0.0;0.0;0.0;8.28;220;21.03;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-03;28.2;48.9;0.03;0.0;0.0;6.04;110;14.99;120;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-06;37.0;57.9;0.04;0.0;0.0;3.58;50;17.0;210;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-10;57.0;79.0;0.0;0.0;0.0;14.32;230;25.05;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-11;63.0;80.1;0.0;0.0;0.0;8.95;230;23.04;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-16;57.0;86.0;0.0;0.0;0.0;5.37;260;17.0;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-20;39.9;43.0;0.09;0.0;0.0;6.71;30;12.97;20;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-26;55.0;64.9;0.06;0.0;0.0;6.26;60;16.11;70;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-30;42.1;69.1;0.0;0.0;0.0;6.93;180;16.11;180;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-12;55.0;64.0;0.85;0.0;0.0;8.5;210;18.12;210;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-13;45.0;64.0;0.0;0.0;0.0;9.17;50;19.91;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-15;39.9;66.9;0.0;0.0;0.0;9.62;70;21.92;60;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-16;35.1;70.0;0.0;0.0;0.0;4.7;40;16.11;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-23;61.0;77.0;0.0;0.0;0.0;4.92;50;19.91;50;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-24;50.0;73.9;0.0;0.0;0.0;4.25;40;12.97;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-07;50.0;75.0;0.0;0.0;0.0;6.26;250;16.11;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-14;52.0;82.0;0.0;0.0;0.0;5.14;240;21.92;230;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-25;59.0;87.1;0.0;0.0;0.0;3.8;220;16.11;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-26;64.0;89.1;0.0;0.0;0.0;6.71;230;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-09;52.0;82.0;0.0;0.0;0.0;3.36;240;14.09;240;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-13;62.1;84.9;0.0;0.0;0.0;3.13;40;12.97;300;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-24;69.1;88.0;0.1;0.0;0.0;2.01;200;14.99;200;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-26;64.0;84.9;0.0;0.0;0.0;3.8;80;12.08;80;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-13;72.0;93.9;0.0;0.0;0.0;3.13;240;12.08;320;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-16;70.0;87.1;1.98;0.0;0.0;6.26;180;14.99;210;17.0;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-18;72.0;93.0;0.0;0.0;0.0;7.38;240;14.09;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-29;75.0;91.9;0.0;0.0;0.0;4.92;20;10.07;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-06;73.9;93.0;0.0;0.0;0.0;7.38;230;12.97;250;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-08;73.0;89.1;0.54;0.0;0.0;6.71;270;14.99;290;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-21;73.9;93.9;0.0;0.0;0.0;6.26;330;17.0;310;27.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-29;69.1;90.0;0.0;0.0;0.0;5.59;40;12.97;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-30;66.9;91.9;0.0;0.0;0.0;4.92;40;14.09;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-06;61.0;91.0;0.0;0.0;0.0;4.03;240;12.97;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-15;66.0;90.0;0.0;0.0;0.0;7.83;40;17.0;80;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-18;71.1;90.0;0.06;0.0;0.0;3.58;100;12.97;150;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-28;66.0;86.0;0.45;0.0;0.0;5.14;240;21.92;240;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-29;64.9;79.0;0.32;0.0;0.0;6.49;110;18.12;120;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-10-01;66.0;84.0;0.0;0.0;0.0;3.8;240;17.0;250;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-10;45.0;68.0;0.0;0.0;0.0;5.37;40;16.11;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-12;48.0;73.0;0.0;0.0;0.0;1.57;20;8.05;30;12.97;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-18;60.1;84.0;0.0;0.0;0.0;7.61;230;17.0;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-20;61.0;86.0;0.0;0.0;0.0;3.8;180;12.08;170;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-23;39.9;70.0;0.0;0.0;0.0;6.71;230;14.99;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-25;44.1;66.0;0.0;0.0;0.0;2.68;70;14.99;50;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-26;39.0;68.0;0.0;0.0;0.0;1.79;230;10.07;230;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-04;45.0;69.1;0.07;0.0;0.0;7.16;40;18.12;30;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-05;37.9;64.9;0.0;0.0;0.0;2.91;90;14.99;90;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-06;37.0;71.1;0.0;0.0;0.0;1.57;30;10.07;30;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-09;46.9;66.9;0.0;0.0;0.0;5.59;290;17.0;330;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-12;30.2;55.0;0.0;0.0;0.0;7.83;50;19.91;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-19;42.1;77.0;0.0;0.0;0.0;9.17;230;23.94;290;38.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-11-20;31.1;53.1;0.0;0.0;0.0;6.49;280;18.12;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-21;27.1;54.0;0.0;0.0;0.0;5.14;300;16.11;290;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-23;28.2;62.1;0.0;0.0;0.0;3.58;230;10.07;230;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-29;57.9;72.0;0.06;0.0;0.0;12.97;200;21.92;160;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-06;43.0;48.9;0.56;0.0;0.0;7.83;60;14.99;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-07;37.0;60.1;0.0;0.0;0.0;2.01;20;8.95;30;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-25;48.0;60.1;0.0;0.0;0.0;5.14;90;10.07;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-27;52.0;68.0;0.01;0.0;0.0;10.29;240;19.91;230;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-31;23.2;50.0;0.0;0.0;0.0;8.72;220;21.03;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-06;32.0;43.0;0.25;0.0;0.0;6.04;40;14.09;40;19.01;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2017-01-08;15.3;27.1;0.0;0.0;1.18;4.92;300;14.09;300;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-10;24.3;48.0;0.0;0.0;1.18;5.14;170;14.99;170;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-12;54.0;73.0;0.0;0.0;0.0;12.53;230;27.96;230;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-23;43.0;60.1;0.28;0.0;0.0;9.84;80;25.05;80;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-28;27.1;52.0;0.0;0.0;0.0;9.4;230;21.92;260;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-30;30.2;46.0;0.0;0.0;0.0;6.26;270;21.03;280;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-01;42.1;70.0;0.0;0.0;0.0;3.8;220;10.07;30;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-05;27.1;60.1;0.01;0.0;0.0;4.92;220;16.11;280;23.04;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2017-02-15;39.0;55.9;0.34;0.0;0.0;5.37;290;14.99;300;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-19;44.1;73.0;0.0;0.0;0.0;4.7;250;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-20;42.1;73.0;0.0;0.0;0.0;1.79;90;12.97;290;23.04;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-02-24;46.9;80.1;0.0;0.0;0.0;3.58;230;14.09;170;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-25;52.0;81.0;0.0;0.0;0.0;13.2;230;29.97;240;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-27;35.1;66.0;0.0;0.0;0.0;5.37;220;14.99;180;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-28;50.0;77.0;0.0;0.0;0.0;7.16;220;19.91;210;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-08;46.0;69.1;0.05;0.0;0.0;8.5;220;23.04;210;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-25;52.0;75.9;0.0;0.0;0.0;10.74;240;21.03;240;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-07;43.0;59.0;0.0;0.0;0.0;11.86;290;23.94;260;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-12;55.9;82.9;0.0;0.0;0.0;4.03;210;14.09;220;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-16;60.1;82.0;0.0;0.0;0.0;12.75;250;23.04;240;31.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-04-22;55.9;87.1;0.09;0.0;0.0;9.4;250;25.95;240;35.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-23;53.1;55.9;0.77;0.0;0.0;11.18;90;21.03;80;27.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-24;53.1;60.1;4.51;0.0;0.0;10.96;50;21.03;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-04;57.0;80.1;0.29;0.0;0.0;10.74;140;19.91;140;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-14;48.9;81.0;0.0;0.0;0.0;7.16;250;17.0;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-22;68.0;80.1;0.3;0.0;0.0;8.05;250;21.92;240;27.96;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2017-05-24;64.9;73.9;0.29;0.0;0.0;5.82;160;16.11;160;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-27;61.0;88.0;0.0;0.0;0.0;6.04;220;17.0;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-17;72.0;86.0;0.21;0.0;0.0;5.82;160;14.99;280;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-18;73.9;91.0;0.17;0.0;0.0;8.72;190;17.0;230;40.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-20;66.9;82.0;0.72;0.0;0.0;4.47;240;12.97;200;18.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-22;71.1;84.0;0.0;0.0;0.0;8.05;240;16.11;260;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-28;57.0;82.9;0.0;0.0;0.0;4.25;80;12.97;30;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-29;60.1;87.1;0.0;0.0;0.0;6.71;190;14.09;190;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-02;71.1;91.9;0.0;0.0;0.0;4.47;230;10.07;200;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-03;70.0;93.0;0.15;0.0;0.0;2.91;190;14.99;170;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-04;71.1;91.9;0.84;0.0;0.0;3.8;40;16.11;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-09;69.1;88.0;0.0;0.0;0.0;3.36;50;12.97;40;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-11;71.1;95.0;0.0;0.0;0.0;6.93;180;16.11;210;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-14;77.0;97.0;0.0;0.0;0.0;9.4;230;21.03;240;25.95;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-20;71.1;99.0;0.0;0.0;0.0;3.8;210;10.07;220;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-23;71.1;102.0;0.56;0.0;0.0;8.95;220;25.05;220;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-11;73.0;89.1;1.2;0.0;0.0;4.25;260;12.97;290;16.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-12;73.0;91.9;0.48;0.0;0.0;5.37;300;12.08;280;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-17;75.0;93.9;0.24;0.0;0.0;4.92;220;21.03;220;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-29;64.0;71.1;0.22;0.0;0.0;8.5;30;17.0;30;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-03;62.1;82.9;0.0;0.0;0.0;4.25;240;12.97;230;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-07;53.1;75.9;0.0;0.0;0.0;2.91;260;14.09;310;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-09;53.1;75.9;0.0;0.0;0.0;7.38;40;16.11;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-11;57.9;66.9;0.01;0.0;0.0;12.75;60;19.91;50;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-21;64.9;88.0;0.0;0.0;0.0;1.79;50;23.94;50;35.12;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-10-14;62.1;78.1;0.0;0.0;0.0;3.13;40;8.95;150;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-19;42.1;75.9;0.0;0.0;0.0;1.12;230;12.08;240;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-21;48.0;79.0;0.0;0.0;0.0;2.01;160;10.07;110;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-22;51.1;79.0;0.0;0.0;0.0;3.13;140;10.07;120;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-25;42.1;66.0;0.0;0.0;0.0;3.8;240;14.99;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-26;39.9;63.0;0.0;0.0;0.0;3.8;260;12.97;270;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-28;46.9;73.9;0.76;0.0;0.0;4.92;170;14.09;170;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-30;36.0;59.0;0.0;0.0;0.0;6.93;280;14.99;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-12;28.2;48.9;0.03;0.0;0.0;1.57;50;12.08;40;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-22;42.1;62.1;0.03;0.0;0.0;4.7;10;14.09;320;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-12;30.2;53.1;0.0;0.0;0.0;9.62;280;18.12;330;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-17;27.1;51.1;0.0;0.0;0.0;2.24;240;10.07;200;12.08;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-12-19;36.0;70.0;0.0;0.0;0.0;4.47;230;14.09;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-28;18.1;30.2;0.0;0.0;0.0;7.83;70;16.11;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-31;23.2;35.1;0.0;0.0;0.0;10.07;50;18.12;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-02;12.2;32.0;0.0;0.0;0.0;2.91;30;10.07;20;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-10;43.0;61.0;0.0;0.0;0.0;4.92;90;10.07;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-18;10.2;34.0;0.0;0.2;5.91;5.59;270;12.97;320;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-20;26.2;55.9;0.0;0.0;1.18;5.59;220;12.97;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-22;37.9;62.1;0.0;0.0;0.0;4.7;190;18.12;200;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-27;31.1;66.9;0.0;0.0;0.0;6.26;170;17.0;190;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-29;33.1;52.0;0.59;0.0;0.0;8.05;360;14.99;20;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-01;31.1;62.1;0.0;0.0;0.0;13.2;240;25.05;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-07;44.1;64.9;0.21;0.0;0.0;8.5;190;21.92;200;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-13;37.0;44.1;0.0;0.0;0.0;8.72;50;17.0;50;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-16;55.9;81.0;0.02;0.0;0.0;13.42;230;25.95;230;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-20;50.0;72.0;0.0;0.0;0.0;3.36;200;12.97;190;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-28;39.0;57.0;0.07;0.0;0.0;4.92;220;12.97;200;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-05;26.2;54.0;0.0;0.0;0.0;4.7;50;12.97;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-08;27.1;46.9;0.0;0.0;0.0;4.47;250;16.11;310;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-11;37.9;48.9;0.21;0.0;0.0;7.83;80;16.11;80;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-12;32.0;37.9;0.92;1.42;0.0;7.16;30;14.09;30;19.91;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2018-03-15;24.3;64.9;0.0;0.0;0.0;11.63;230;29.97;240;42.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-18;39.9;60.1;0.01;0.0;0.0;6.04;40;16.11;40;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-23;27.1;55.9;0.0;0.0;0.0;3.8;270;16.11;260;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-28;43.0;75.9;0.0;0.0;0.0;10.74;240;21.92;230;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-01;41.0;75.0;0.0;0.0;0.0;7.61;230;16.11;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-08;32.0;52.0;0.0;0.0;0.0;4.92;40;17.0;20;25.05;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2018-04-19;45.0;75.9;0.0;0.0;0.0;10.96;290;23.94;290;34.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-02;53.1;84.9;0.0;0.0;0.0;10.07;230;21.03;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-04;60.1;84.9;0.0;0.0;0.0;12.97;220;21.92;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-06;62.1;84.9;0.16;0.0;0.0;3.58;310;18.12;300;33.11;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-14;68.0;93.0;0.0;0.0;0.0;8.05;220;16.11;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-15;69.1;88.0;0.02;0.0;0.0;8.72;240;18.12;190;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-02;68.0;87.1;0.08;0.0;0.0;4.7;320;14.09;300;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-14;70.0;91.0;0.0;0.0;0.0;4.47;360;10.07;10;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-18;73.9;93.9;0.0;0.0;0.0;4.92;230;14.09;220;17.0;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-25;72.0;88.0;0.02;0.0;0.0;4.25;50;12.08;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-26;68.0;91.9;0.0;0.0;0.0;4.92;220;12.97;220;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-29;70.0;88.0;0.07;0.0;0.0;4.25;140;16.11;90;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-05;72.0;93.0;0.0;0.0;0.0;3.36;90;16.11;140;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-12;70.0;89.1;0.8;0.0;0.0;2.91;20;17.0;20;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-19;68.0;88.0;1.83;0.0;0.0;6.71;30;16.11;340;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-20;68.0;87.1;0.86;0.0;0.0;4.47;220;16.11;220;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-22;70.0;88.0;0.01;0.0;0.0;6.71;230;14.09;330;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-25;59.0;82.9;0.0;0.0;0.0;2.68;40;10.07;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-27;69.1;93.0;0.0;0.0;0.0;4.03;250;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-28;71.1;93.9;0.0;0.0;0.0;6.04;240;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-29;72.0;93.9;0.0;0.0;0.0;7.38;230;14.99;210;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-04;72.0;91.9;0.01;0.0;0.0;2.91;40;12.97;110;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-07;71.1;91.9;0.03;0.0;0.0;2.68;170;8.95;170;14.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-09;66.9;80.1;0.15;0.0;0.0;5.37;40;12.97;30;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-10;66.9;88.0;0.26;0.0;0.0;4.47;230;23.04;230;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-12;72.0;88.0;0.13;0.0;0.0;5.14;30;12.97;40;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-13;73.9;81.0;0.28;0.0;0.0;11.18;20;21.03;40;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-14;73.0;79.0;2.5;0.0;0.0;20.36;40;33.11;50;48.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-16;73.0;75.9;0.9;0.0;0.0;14.99;80;23.04;80;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-06;68.0;82.0;0.0;0.0;0.0;3.58;80;10.07;80;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-07;66.0;87.1;0.0;0.0;0.0;2.91;90;10.07;30;17.0;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-10-08;69.1;84.9;0.0;0.0;0.0;6.26;100;16.11;100;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-17;53.1;71.1;0.0;0.0;0.0;3.58;270;12.08;260;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-21;37.0;57.9;0.0;0.0;0.0;5.59;340;19.91;350;34.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-24;37.9;61.0;0.0;0.0;0.0;3.58;40;14.99;40;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-26;42.1;52.0;1.58;0.0;0.0;8.05;90;21.92;90;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-29;39.0;64.9;0.0;0.0;0.0;5.14;290;17.0;300;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-05;54.0;62.1;0.82;0.0;0.0;3.8;90;18.12;80;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-06;57.0;73.9;0.03;0.0;0.0;7.38;230;27.96;240;36.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-14;39.0;48.0;0.04;0.0;0.0;8.05;60;16.11;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-15;36.0;43.0;0.88;0.0;0.0;10.29;50;21.03;40;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-19;43.0;64.9;0.0;0.0;0.0;3.36;230;12.97;220;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-21;30.2;57.0;0.0;0.0;0.0;2.24;270;12.08;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-23;27.1;45.0;0.0;0.0;0.0;7.83;100;14.09;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-24;36.0;45.0;0.72;0.0;0.0;5.14;290;12.97;300;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-27;31.1;48.0;0.0;0.0;0.0;6.71;320;14.09;350;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-02;57.9;71.1;0.0;0.0;0.0;10.96;220;21.03;230;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-09;30.2;37.9;1.75;7.01;3.15;15.21;50;23.94;30;35.12;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2018-12-26;26.2;51.1;0.0;0.0;0.0;2.46;100;8.95;110;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-28;50.0;68.0;1.61;0.0;0.0;9.84;20;21.03;200;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-03;55.0;82.0;0.0;0.0;0.0;2.91;240;16.11;230;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-10;59.0;79.0;0.02;0.0;0.0;7.83;220;17.0;220;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-14;46.9;61.0;0.14;0.0;0.0;8.72;40;14.99;50;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-10-17;45.0;57.9;0.0;0.0;0.0;6.26;30;14.09;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-29;48.0;68.0;0.0;0.0;0.0;5.82;80;14.99;70;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-03;37.9;71.1;0.0;0.0;0.0;2.01;20;8.05;290;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-10;55.9;63.0;0.88;0.0;0.0;4.7;30;16.11;30;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-11-16;42.1;73.9;0.0;0.0;0.0;0.89;80;8.05;100;12.08;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-17;46.9;63.0;0.0;0.0;0.0;5.82;50;14.09;50;17.0;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-18;52.0;62.1;0.45;0.0;0.0;8.28;40;16.11;50;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-11-19;57.9;73.0;0.01;0.0;0.0;5.14;250;10.07;250;14.99;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2009-11-22;37.0;57.0;0.19;0.0;0.0;5.82;70;17.0;70;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-11-27;36.0;54.0;0.0;0.0;0.0;7.38;250;21.03;270;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-01;30.0;55.9;0.0;0.0;0.0;2.01;240;8.05;230;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-08;33.1;46.0;0.45;0.0;0.0;6.49;80;16.11;80;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-12-11;25.0;36.0;0.0;0.0;0.0;3.36;290;12.08;290;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-16;28.9;48.9;0.0;0.0;0.0;2.91;10;10.07;350;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-17;28.0;45.0;0.0;0.0;0.0;2.01;50;10.07;20;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-21;24.1;48.9;0.0;0.0;0.0;2.24;240;14.09;270;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-23;25.0;53.1;0.0;0.0;0.0;0.45;50;6.04;160;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-07;19.9;48.0;0.0;0.0;0.0;5.37;210;12.97;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-08;21.9;42.1;0.05;0.0;0.0;8.95;240;23.04;230;33.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-01-10;19.0;37.0;0.0;0.0;0.0;2.46;30;12.08;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-14;23.0;57.0;0.0;0.0;0.0;3.58;220;8.95;220;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-19;35.1;66.0;0.0;0.0;0.0;1.79;240;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-16;27.0;41.0;0.0;0.0;0.0;7.61;240;17.9;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-20;23.0;59.0;0.0;0.0;0.0;2.46;280;12.08;290;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-22;36.0;52.0;0.29;0.0;0.0;2.46;110;16.11;110;19.91;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2010-03-02;33.1;42.1;0.29;0.2;0.0;9.62;50;19.91;10;25.95;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;Yes;No;Yes;No;No;No
2010-03-09;35.1;73.0;0.0;0.0;0.0;2.01;230;14.09;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-16;39.0;52.0;0.0;0.0;0.0;4.7;20;14.09;30;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-20;39.9;78.1;0.0;0.0;0.0;5.59;220;17.0;210;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-02;54.0;88.0;0.0;0.0;0.0;4.7;200;14.09;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-04;57.9;82.9;0.0;0.0;0.0;3.58;220;12.97;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-06;62.1;90.0;0.0;0.0;0.0;10.29;230;23.04;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-14;41.0;57.0;0.0;0.0;0.0;7.61;50;16.11;50;23.94;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-02;72.0;91.9;0.0;0.0;0.0;13.87;230;23.94;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-10;42.1;68.0;0.0;0.0;0.0;4.47;80;16.11;70;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-14;64.9;93.9;0.0;0.0;0.0;7.61;240;14.99;240;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2010-05-16;66.9;82.0;0.12;0.0;0.0;4.92;120;14.99;120;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;Yes;No;Yes;No;No;No
2010-05-20;57.9;79.0;0.0;0.0;0.0;2.68;30;8.95;40;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-26;62.1;82.9;0.0;0.0;0.0;5.82;50;16.11;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-28;64.0;87.1;0.41;0.0;0.0;6.71;230;25.05;220;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-06-01;69.1;84.9;0.29;0.0;0.0;6.49;160;19.91;170;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-06-02;71.1;88.0;0.01;0.0;0.0;4.7;140;12.97;140;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2010-06-14;71.1;93.0;0.0;0.0;0.0;3.8;270;12.97;240;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-15;72.0;93.9;0.01;0.0;0.0;2.46;230;14.99;220;17.0;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-06-25;77.0;93.9;0.0;0.0;0.0;4.47;190;14.09;190;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-27;73.0;100.9;0.0;0.0;0.0;8.05;230;17.9;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-20;73.0;98.1;0.64;0.0;0.0;7.61;280;29.97;280;44.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-07-21;75.0;97.0;0.0;0.0;0.0;7.83;230;17.0;260;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-24;79.0;100.0;0.0;0.0;0.0;9.62;230;17.9;240;25.95;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-07-28;73.9;93.9;0.0;0.0;0.0;5.14;250;12.97;220;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-30;73.0;89.1;0.0;0.0;0.0;5.59;60;14.09;30;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-31;64.0;78.1;0.12;0.0;0.0;2.91;100;10.07;110;16.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-08-03;71.1;91.0;0.0;0.0;0.0;3.8;190;10.07;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-14;73.9;88.0;0.0;0.0;0.0;7.61;90;14.09;90;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-18;75.0;96.1;0.1;0.0;0.0;6.49;240;19.91;230;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-21;66.9;90.0;0.0;0.0;0.0;3.36;130;12.97;140;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-08-23;72.0;89.1;0.0;0.0;0.0;4.25;100;16.11;70;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-28;70.0;90.0;0.0;0.0;0.0;2.68;50;12.97;110;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-08-31;64.9;97.0;0.0;0.0;0.0;2.24;50;10.07;30;16.11;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-08;71.1;91.0;0.0;0.0;0.0;8.95;280;17.9;270;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-10;57.9;88.0;0.0;0.0;0.0;5.37;30;14.09;10;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-12;64.9;88.0;0.03;0.0;0.0;3.8;290;12.97;340;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2010-09-13;63.0;87.1;0.0;0.0;0.0;3.58;60;16.11;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-14;60.1;96.1;0.0;0.0;0.0;4.03;280;16.11;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-19;60.1;93.0;0.0;0.0;0.0;2.01;80;10.07;130;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-20;64.0;93.0;0.0;0.0;0.0;4.7;50;14.09;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-22;70.0;96.1;0.0;0.0;0.0;8.5;240;17.9;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-23;71.1;99.0;0.0;0.0;0.0;6.71;220;14.99;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-24;70.0;96.1;0.0;0.0;0.0;7.83;170;14.99;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-30;68.0;77.0;1.84;0.0;0.0;7.83;160;21.92;170;31.09;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2010-10-05;46.9;69.1;0.0;0.0;0.0;4.03;290;14.99;310;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-07;46.9;82.0;0.0;0.0;0.0;5.59;260;17.9;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-12;57.0;88.0;0.0;0.0;0.0;3.8;230;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-20;52.0;64.9;0.1;0.0;0.0;2.24;40;8.05;50;12.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2010-10-22;43.0;68.0;0.0;0.0;0.0;2.91;290;10.07;330;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-24;46.9;78.1;0.0;0.0;0.0;5.82;230;16.11;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-30;36.0;64.9;0.0;0.0;0.0;5.82;220;17.0;250;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-01;46.0;63.0;0.0;0.0;0.0;8.5;50;16.11;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-03;45.0;55.9;0.02;0.0;0.0;4.03;40;10.07;40;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-11-11;39.9;66.0;0.0;0.0;0.0;4.03;40;14.99;40;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-15;39.9;70.0;0.0;0.0;0.0;1.79;230;8.05;150;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-16;54.0;66.9;0.38;0.0;0.0;8.28;250;25.05;280;36.91;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-11-17;39.9;64.9;0.09;0.0;0.0;7.16;240;31.09;250;42.95;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-11-24;46.0;63.0;0.0;0.0;0.0;5.14;80;12.08;120;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-09;19.9;42.1;0.0;0.0;0.0;2.24;350;8.05;300;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-12;36.0;52.0;0.4;0.0;0.0;7.61;190;21.03;240;29.97;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2010-12-14;16.0;35.1;0.0;0.0;0.0;10.07;280;17.9;300;31.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-12-24;21.9;46.9;0.0;0.0;0.0;0.89;350;8.95;340;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-31;28.9;61.0;0.0;0.0;0.0;2.91;230;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-05;26.1;46.0;0.0;0.0;0.0;0.67;150;6.04;20;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-09;19.0;35.1;0.0;0.0;0.0;4.03;330;12.97;300;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-18;32.0;46.9;0.0;0.0;0.0;4.7;20;12.97;10;21.92;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-01-21;28.0;46.9;0.0;0.0;0.0;7.16;300;17.9;290;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-22;17.1;32.0;0.0;0.0;0.0;5.82;50;14.09;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-26;37.9;43.0;0.37;0.0;0.0;6.26;280;14.99;290;25.05;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-01-27;28.0;48.0;0.0;0.0;0.0;2.68;240;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-28;28.0;55.9;0.0;0.0;0.0;4.47;270;17.0;270;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-02-01;34.0;53.1;0.0;0.0;0.0;4.47;160;8.95;160;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-05;35.1;48.9;0.92;0.0;0.0;8.05;230;21.03;230;25.95;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-02-06;30.0;54.0;0.0;0.0;0.0;2.01;240;8.95;220;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-11;21.0;51.1;0.0;0.0;0.0;1.12;330;6.93;320;10.07;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-02-13;25.0;61.0;0.0;0.0;0.0;6.93;230;17.9;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-16;34.0;63.0;0.0;0.0;0.0;5.37;230;17.9;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-18;52.0;78.1;0.0;0.0;0.0;10.74;230;17.9;280;23.04;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-02-23;28.9;53.1;0.0;0.0;0.0;3.36;50;8.95;50;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-03;35.1;53.1;0.0;0.0;0.0;10.74;70;21.03;80;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-16;46.9;64.0;0.05;0.0;0.0;2.91;270;10.07;300;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-19;55.9;75.0;0.0;0.0;0.0;5.82;40;17.9;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-21;52.0;75.0;0.0;0.0;0.0;12.75;240;27.96;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-23;50.0;82.9;0.45;0.0;0.0;6.71;230;25.95;220;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-03-30;39.9;48.0;1.05;0.0;0.0;7.83;100;21.92;100;29.08;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-01;37.9;55.0;0.0;0.0;0.0;6.26;280;17.9;290;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-02;37.0;64.9;0.0;0.0;0.0;8.95;270;27.96;280;42.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-07;46.0;79.0;0.0;0.0;0.0;6.49;230;14.99;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-08;53.1;82.0;0.06;0.0;0.0;5.14;30;21.92;20;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-04-10;52.0;72.0;0.0;0.0;0.0;3.8;210;8.95;200;14.09;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-12;57.0;73.0;0.0;0.0;0.0;12.3;220;31.99;200;40.04;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-04-13;46.9;72.0;0.0;0.0;0.0;5.14;290;14.09;270;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-19;55.9;84.9;0.0;0.0;0.0;11.18;230;21.03;190;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-21;55.0;73.0;0.01;0.0;0.0;5.82;120;16.11;360;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-23;54.0;78.1;0.01;0.0;0.0;5.82;210;17.0;210;23.04;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-24;62.1;87.1;0.0;0.0;0.0;11.18;230;21.92;210;25.95;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-26;68.0;82.9;0.0;0.0;0.0;10.29;190;17.9;190;25.05;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-04-27;68.0;87.1;0.21;0.0;0.0;12.97;230;29.97;230;40.94;Yes;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-05-14;63.0;79.0;0.12;0.0;0.0;4.7;170;14.09;170;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-05-17;57.9;72.0;0.17;0.0;0.0;7.16;180;16.11;160;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-05-20;57.0;82.0;0.0;0.0;0.0;2.68;260;12.08;240;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-22;59.0;89.1;0.0;0.0;0.0;4.03;280;12.08;290;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-23;66.0;91.0;0.09;0.0;0.0;7.38;230;19.91;210;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-06-02;70.0;95.0;0.0;0.0;0.0;2.91;20;10.07;30;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-06-03;66.0;84.9;0.0;0.0;0.0;6.93;40;16.11;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-05;69.1;90.0;0.0;0.0;0.0;5.82;40;16.11;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-06;69.1;90.0;0.0;0.0;0.0;4.7;50;12.97;20;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-10;72.0;96.1;0.0;0.0;0.0;7.38;140;12.97;80;31.99;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-06-12;66.9;93.9;0.24;0.0;0.0;5.59;300;23.04;310;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-06-16;68.0;91.0;0.0;0.0;0.0;8.5;230;19.91;200;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-17;66.9;91.9;0.0;0.0;0.0;4.92;230;14.99;150;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-24;72.0;96.1;0.02;0.0;0.0;11.41;230;21.92;240;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-25;70.0;89.1;0.0;0.0;0.0;4.03;250;14.99;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-26;68.0;93.9;0.0;0.0;0.0;3.58;230;14.09;250;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-29;68.0;93.0;0.04;0.0;0.0;4.47;10;10.07;360;17.0;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-01;64.9;93.0;0.0;0.0;0.0;3.13;30;14.09;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-06;73.0;89.1;0.22;0.0;0.0;6.26;220;21.92;220;25.95;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-14;69.1;87.1;0.0;0.0;0.0;8.72;50;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-16;63.0;89.1;0.0;0.0;0.0;6.04;100;12.97;140;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-17;68.0;88.0;0.0;0.0;0.0;2.68;200;8.95;120;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-25;73.9;97.0;0.07;0.0;0.0;4.92;250;25.95;240;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-27;73.0;99.0;0.0;0.0;0.0;4.92;110;14.99;140;27.96;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-31;73.0;84.9;1.16;0.0;0.0;2.68;30;14.99;40;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-08-01;71.1;93.9;0.0;0.0;0.0;2.46;80;12.08;50;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-04;77.0;95.0;0.0;0.0;0.0;4.92;90;14.09;30;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-08;73.0;96.1;0.0;0.0;0.0;5.59;280;12.97;260;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-16;64.0;88.0;0.0;0.0;0.0;1.79;50;8.95;30;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-23;66.0;84.0;0.0;0.0;0.0;5.82;60;12.97;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-01;60.1;86.0;0.0;0.0;0.0;2.01;90;12.08;90;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-12;66.0;87.1;0.0;0.0;0.0;2.91;140;8.95;40;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-21;66.9;82.9;0.43;0.0;0.0;3.36;120;8.05;;;Yes;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-09-24;66.9;78.1;0.03;0.0;0.0;3.8;90;8.05;;;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-26;68.0;84.9;0.0;0.0;0.0;2.91;160;17.9;160;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-29;61.0;84.0;0.0;0.0;0.0;4.25;240;16.11;280;21.92;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-10;55.9;75.0;0.0;0.0;0.0;6.71;50;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-18;59.0;82.9;1.04;0.0;0.0;6.26;170;14.09;160;19.91;No;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-10-19;54.0;68.0;0.84;0.0;0.0;10.51;250;25.95;260;34.9;No;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-10-23;39.9;69.1;0.0;0.0;0.0;1.57;80;8.95;90;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-24;43.0;72.0;0.0;0.0;0.0;1.12;260;8.95;270;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-03;36.0;66.9;0.17;0.0;0.0;4.03;180;12.97;180;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-04;46.9;55.0;1.43;0.0;0.0;11.41;40;21.03;30;29.08;No;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-11-11;33.1;53.1;0.0;0.0;0.0;5.82;300;16.11;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-15;62.1;78.1;0.0;0.0;0.0;10.51;220;21.03;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-21;60.1;77.0;0.0;0.0;0.0;4.7;220;12.08;230;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-23;48.9;73.9;0.18;0.0;0.0;12.08;190;21.92;290;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-30;34.0;53.1;0.0;0.0;0.0;5.82;300;14.99;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-05;45.0;71.1;0.0;0.0;0.0;4.7;160;12.08;150;16.11;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-10;36.0;53.1;0.0;0.0;0.0;2.91;50;12.08;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-22;61.0;68.0;0.08;0.0;0.0;7.83;210;21.03;200;29.08;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-27;42.1;64.0;0.56;0.0;0.0;11.86;240;29.97;230;44.07;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-29;26.1;55.9;0.0;0.0;0.0;4.7;230;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-31;39.9;64.9;0.0;0.0;0.0;6.49;270;14.99;290;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-01;35.1;68.0;0.01;0.0;0.0;7.83;220;23.04;210;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-06;33.1;66.0;0.0;0.0;0.0;5.59;230;14.09;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-11;44.1;60.1;0.61;0.0;0.0;8.05;230;19.91;230;27.96;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-01-12;44.1;59.0;0.0;0.0;0.0;12.97;220;23.04;210;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-17;42.1;64.9;0.1;0.0;0.0;14.99;240;31.09;230;40.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-20;33.1;57.0;0.19;0.0;0.0;3.8;130;12.08;120;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-01-21;36.0;57.9;0.42;0.0;0.0;7.61;220;17.9;220;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-01-25;34.0;64.0;0.0;0.0;0.0;1.79;150;8.95;150;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-28;32.0;62.1;0.0;0.0;0.0;4.47;340;14.99;330;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-29;32.0;53.1;0.0;0.0;0.0;5.59;230;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-31;36.0;68.0;0.0;0.0;0.0;10.07;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-01;46.9;70.0;0.0;0.0;0.0;7.83;230;19.91;240;25.05;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-02-07;32.0;57.0;0.0;0.0;0.0;1.12;40;10.07;50;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-08;28.9;51.1;0.0;0.0;0.0;2.01;350;8.05;330;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-14;39.0;60.1;0.0;0.0;0.0;9.17;230;23.04;230;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-15;41.0;64.0;0.0;0.0;0.0;3.36;50;12.08;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-17;42.1;63.0;0.0;0.0;0.0;2.46;280;8.95;10;16.11;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-18;39.9;64.9;0.0;0.0;0.0;2.46;220;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-24;50.0;78.1;0.09;0.0;0.0;17.45;230;36.01;220;46.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-28;41.0;66.0;0.0;0.0;0.0;4.25;50;12.97;50;17.0;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-04;34.0;54.0;0.17;0.0;0.0;5.37;300;19.91;260;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-06;27.0;54.0;0.0;0.0;0.0;4.03;200;10.07;110;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-08;48.0;75.0;0.0;0.0;0.0;10.07;220;23.04;210;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-13;57.0;78.1;0.02;0.0;0.0;10.51;230;17.0;230;23.04;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-21;60.1;75.0;0.04;0.0;0.0;3.13;120;12.08;120;14.99;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2012-03-25;55.9;68.0;0.03;0.0;0.0;3.8;330;12.97;20;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-04;57.0;84.9;0.62;0.0;0.0;4.25;240;16.11;350;25.95;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-04-08;37.9;75.9;0.0;0.0;0.0;3.58;280;17.0;260;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-17;60.1;86.0;0.0;0.0;0.0;6.93;60;17.0;80;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-28;54.0;62.1;0.0;0.0;0.0;6.04;80;14.99;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-29;55.0;77.0;0.0;0.0;0.0;3.36;30;12.08;30;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-07;57.9;78.1;0.0;0.0;0.0;5.59;140;12.97;130;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-08;61.0;80.1;0.0;0.0;0.0;7.83;200;16.11;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-10;51.1;72.0;0.0;0.0;0.0;3.8;290;14.09;290;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-13;60.1;75.0;0.15;0.0;0.0;5.59;190;14.09;180;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-14;63.0;75.0;0.49;0.0;0.0;6.26;180;16.11;180;23.04;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-20;52.0;82.0;0.0;0.0;0.0;6.49;30;21.03;40;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-21;66.0;82.0;0.0;0.0;0.0;1.34;50;8.95;150;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-10;64.9;89.1;0.0;0.0;0.0;6.26;200;14.09;200;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-12;68.0;82.9;0.43;0.0;0.0;7.61;50;19.91;50;25.05;No;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2012-06-16;53.1;80.1;0.0;0.0;0.0;6.26;40;17.0;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-13;48.0;69.1;0.0;0.0;0.0;6.93;230;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-19;34.0;54.0;0.0;0.0;0.0;6.93;270;17.0;260;23.04;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-01-21;28.0;35.1;0.8;0.0;0.0;5.82;90;12.97;90;17.0;Yes;No;Yes;Yes;No;Yes;Yes;No;No;Yes;No;No;No;No;No;No;No
2007-01-25;30.9;46.9;0.0;0.0;0.0;6.49;290;19.91;310;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-27;32.0;64.0;0.0;0.0;0.0;11.41;230;19.91;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-05;19.9;39.9;0.0;0.0;0.0;7.83;270;17.9;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-08;27.0;48.0;0.0;0.0;0.0;3.13;300;14.99;280;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-09;21.9;42.1;0.0;0.0;0.0;3.36;360;14.09;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-26;41.0;61.0;0.0;0.0;0.0;2.46;210;8.95;230;12.08;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-04;34.0;50.0;0.0;0.0;0.0;6.93;280;17.0;280;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-05;26.1;64.0;0.0;0.0;0.0;8.5;240;21.92;240;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-17;33.1;48.9;0.0;0.0;0.0;7.38;330;19.91;330;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-18;28.0;48.9;0.0;0.0;0.0;4.25;240;14.09;350;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-05;41.0;57.9;0.0;0.0;0.0;3.58;310;14.99;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-06;30.0;57.0;0.01;0.0;0.0;2.46;360;16.11;290;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-11;46.0;59.0;0.73;0.0;0.0;6.49;140;17.9;150;25.05;Yes;No;No;Yes;No;No;No;Yes;No;No;Yes;Yes;No;No;No;No;No
2007-04-17;46.9;72.0;0.0;0.0;0.0;7.61;360;19.91;320;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-19;44.1;57.9;0.04;0.0;0.0;4.47;90;12.97;90;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-23;52.0;82.9;0.0;0.0;0.0;11.41;230;21.92;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-27;63.0;82.9;0.25;0.0;0.0;11.18;220;21.03;230;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-28;59.0;75.9;0.0;0.0;0.0;6.71;270;16.11;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-29;53.1;80.1;0.0;0.0;0.0;6.49;300;17.9;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-02;63.0;90.0;0.0;0.0;0.0;8.72;230;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-03;57.0;71.1;0.0;0.0;0.0;9.62;80;17.0;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-05;55.0;66.0;0.01;0.0;0.0;2.68;320;6.93;90;8.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-05-07;42.1;70.0;0.0;0.0;0.0;12.53;50;25.05;40;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-08;50.0;69.1;0.04;0.0;0.0;11.41;40;17.9;40;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-05-16;62.1;84.0;0.02;0.0;0.0;13.87;230;23.94;230;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-05-18;48.9;70.0;0.0;0.0;0.0;7.83;30;16.11;40;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-25;55.9;86.0;0.0;0.0;0.0;4.92;240;12.97;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-14;60.1;70.0;0.01;0.0;0.0;6.71;80;14.99;80;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-22;62.1;91.0;0.13;0.0;0.0;4.25;30;19.91;30;25.05;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-06-24;66.9;89.1;0.31;0.0;0.0;5.37;260;14.99;260;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-06-27;69.1;93.0;0.0;0.0;0.0;7.38;230;21.03;220;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-28;73.0;93.9;0.0;0.0;0.0;9.17;190;17.9;200;23.04;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-01;66.0;86.0;0.0;0.0;0.0;6.93;30;17.0;70;21.92;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-03;63.0;86.0;0.0;0.0;0.0;6.93;180;12.97;180;17.0;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-04;64.9;89.1;0.0;0.0;0.0;9.17;200;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-15;66.9;90.0;0.0;0.0;0.0;7.38;230;14.99;230;17.9;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-16;70.0;91.9;0.0;0.0;0.0;8.05;230;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-22;57.9;84.9;0.0;0.0;0.0;5.14;50;17.9;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-29;66.9;89.1;0.0;0.0;0.0;4.25;160;16.11;150;19.91;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-09;78.1;104.0;0.0;0.0;0.0;4.25;120;23.04;90;25.95;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-20;75.0;102.9;0.0;0.0;0.0;10.51;230;19.91;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-26;72.0;98.1;0.06;0.0;0.0;6.04;10;21.03;10;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-08-29;73.0;93.0;0.0;0.0;0.0;6.49;100;12.08;150;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-03;59.0;91.0;0.0;0.0;0.0;3.36;90;10.07;130;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-05;66.0;96.1;0.0;0.0;0.0;4.25;170;10.07;170;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-09;60.1;95.0;0.0;0.0;0.0;3.58;20;12.08;10;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-15;61.0;82.0;0.0;0.0;0.0;5.59;50;16.11;360;21.92;Yes;No;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-23;66.0;91.9;0.0;0.0;0.0;4.47;110;12.97;80;17.0;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-24;64.9;86.0;0.0;0.0;0.0;5.59;50;12.08;50;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-26;63.0;89.1;0.0;0.0;0.0;5.82;170;12.08;170;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-09;66.0;93.9;0.0;0.0;0.0;4.7;270;10.07;300;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-18;63.0;84.9;0.04;0.0;0.0;5.14;230;12.97;170;16.11;Yes;Yes;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-10-31;37.9;73.9;0.0;0.0;0.0;1.79;140;8.95;170;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-03;39.9;66.0;0.0;0.0;0.0;5.37;20;14.99;20;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-07;30.0;55.0;0.0;0.0;0.0;3.8;40;12.97;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-09;34.0;61.0;0.0;0.0;0.0;4.25;210;12.08;230;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-16;34.0;51.1;0.0;0.0;0.0;6.26;290;17.0;320;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-19;46.0;61.0;0.0;0.0;0.0;3.13;10;8.95;40;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-21;46.9;78.1;0.0;0.0;0.0;7.61;230;21.03;220;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-25;36.0;48.9;0.06;0.0;0.0;3.13;90;10.07;100;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-11-29;36.0;63.0;0.0;0.0;0.0;3.36;260;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-02;33.1;54.0;0.0;0.0;0.0;5.82;230;14.99;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-04;36.0;45.0;0.0;0.0;0.0;5.82;270;16.11;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-13;54.0;75.9;0.01;0.0;0.0;9.17;220;23.94;230;29.08;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-17;28.0;44.1;0.0;0.0;0.0;6.26;270;14.99;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-23;46.9;66.9;0.16;0.0;0.0;10.74;220;25.05;220;29.97;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-12-27;36.0;57.9;0.0;0.0;0.0;3.58;220;14.09;220;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-03;19.9;35.1;0.0;0.0;0.0;4.47;330;12.08;310;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-08;50.0;73.0;0.0;0.0;0.0;8.5;210;16.11;210;21.03;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-11;48.9;68.0;0.0;0.0;0.0;13.42;220;29.97;220;38.03;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-25;21.0;39.0;0.0;0.0;0.0;3.8;340;14.09;340;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-29;37.0;64.0;0.0;0.0;0.0;13.42;220;23.94;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-01;36.0;60.1;0.83;0.0;0.0;8.5;330;25.95;210;35.12;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2008-02-06;61.0;77.0;0.0;0.0;0.0;19.01;220;33.11;230;40.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-07;43.0;66.0;0.0;0.0;0.0;8.05;230;25.95;240;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-11;27.0;46.9;0.0;0.0;0.0;4.92;20;12.08;320;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-12;30.0;62.1;0.28;0.0;0.0;6.04;240;27.96;240;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No
2008-02-18;45.0;73.0;0.29;0.0;0.0;14.54;230;31.09;240;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-19;30.9;55.0;0.0;0.0;0.0;8.72;250;23.04;220;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-25;35.1;61.0;0.01;0.0;0.0;4.25;240;12.08;240;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2008-02-28;21.9;43.0;0.0;0.0;0.0;5.82;260;17.0;260;21.92;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-03-01;39.9;64.9;0.0;0.0;0.0;9.84;270;21.92;270;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-12;44.1;68.0;0.0;0.0;0.0;5.14;280;17.0;260;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-25;28.9;57.9;0.0;0.0;0.0;6.26;220;17.0;210;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-02;51.1;66.0;0.0;0.0;0.0;9.17;110;17.0;90;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-10;48.0;78.1;0.0;0.0;0.0;4.03;170;14.09;170;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-04-19;54.0;82.0;0.0;0.0;0.0;11.18;170;19.91;180;25.05;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-04-22;55.9;71.1;0.23;0.0;0.0;11.41;40;23.04;30;27.96;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-04-24;51.1;80.1;0.0;0.0;0.0;2.46;90;12.08;120;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-26;60.1;87.1;0.0;0.0;0.0;9.62;220;19.91;230;23.04;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-05;55.0;73.0;0.0;0.0;0.0;6.71;40;14.99;30;17.9;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-14;44.1;73.9;0.0;0.0;0.0;6.26;230;16.11;220;21.92;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-05-20;57.9;82.9;0.43;0.0;0.0;10.51;230;25.05;220;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-05-22;48.0;78.1;0.0;0.0;0.0;4.03;230;16.11;280;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-23;52.0;79.0;0.0;0.0;0.0;4.7;70;10.07;100;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-01;64.9;91.0;0.14;0.0;0.0;4.92;350;21.92;330;31.09;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-06-05;75.9;96.1;0.0;0.0;0.0;5.82;220;17.0;230;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-06-07;73.9;100.0;0.0;0.0;0.0;5.59;230;16.11;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-14;69.1;96.1;0.01;0.0;0.0;7.61;200;17.9;170;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-06-21;66.0;88.0;1.18;0.0;0.0;4.47;50;23.04;50;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-06-22;64.9;87.1;0.93;0.0;0.0;6.93;200;23.04;200;29.97;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-06-27;71.1;96.1;0.0;0.0;0.0;7.83;220;17.9;220;21.92;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-06-29;69.1;95.0;0.82;0.0;0.0;11.41;230;25.05;230;29.08;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-07-07;69.1;87.1;0.0;0.0;0.0;9.4;230;17.0;220;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-09;70.0;90.0;0.97;0.0;0.0;10.51;300;23.04;300;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-07-13;68.0;91.0;0.0;0.0;0.0;5.14;180;14.09;160;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-17;64.0;89.1;0.0;0.0;0.0;5.37;50;14.99;100;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-07-19;70.0;90.0;0.76;0.0;0.0;3.36;150;19.91;130;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-07-29;72.0;91.9;0.0;0.0;0.0;6.26;230;14.09;220;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-07-30;75.0;93.0;0.0;0.0;0.0;7.61;230;17.0;240;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-08-13;61.0;73.9;0.11;0.0;0.0;3.8;130;14.09;130;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;Yes;No;No
2008-08-17;64.9;84.9;0.0;0.0;0.0;2.46;170;14.99;130;17.0;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-08-22;64.0;88.0;0.0;0.0;0.0;9.4;90;17.0;110;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-29;70.0;89.1;0.0;0.0;0.0;3.58;120;10.07;140;14.99;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;Yes;No
2008-09-04;64.0;90.0;0.0;0.0;0.0;4.47;170;10.07;180;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-09-13;72.0;91.0;0.0;0.0;0.0;6.26;240;14.09;230;17.0;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-15;73.0;86.0;0.0;0.0;0.0;5.59;220;14.09;360;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-09-17;60.1;73.9;0.0;0.0;0.0;3.8;30;10.07;50;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-24;53.1;70.0;0.0;0.0;0.0;12.3;40;23.04;20;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-26;63.0;81.0;0.96;0.0;0.0;10.07;30;21.92;30;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-10;64.9;73.0;0.02;0.0;0.0;6.71;50;16.11;40;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-11;60.1;71.1;0.0;0.0;0.0;9.62;40;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-14;48.9;84.9;0.0;0.0;0.0;1.12;230;10.07;230;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-16;55.9;84.9;0.0;0.0;0.0;2.24;220;12.08;240;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-20;35.1;66.9;0.0;0.0;0.0;2.24;220;10.07;220;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-26;44.1;70.0;0.0;0.0;0.0;3.13;230;12.08;;;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-05;52.0;68.0;0.0;0.0;0.0;6.93;40;14.99;30;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-07;46.9;80.1;0.0;0.0;0.0;4.03;230;14.99;220;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-10;34.0;61.0;0.0;0.0;0.0;1.79;270;12.08;260;17.0;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-15;51.1;75.9;0.62;0.0;0.0;14.54;220;29.97;240;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-11-22;21.0;46.0;0.0;0.0;0.0;3.13;270;12.97;330;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-24;28.0;55.0;0.19;0.0;0.0;6.04;220;16.11;220;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-10;61.0;70.0;0.07;0.0;0.0;10.51;170;17.9;170;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-12-17;44.1;57.9;0.0;0.0;0.0;4.47;230;14.09;240;14.99;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-19;54.0;71.1;0.0;0.0;0.0;10.74;230;31.99;220;36.91;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2008-12-23;21.9;44.1;0.0;0.0;0.0;4.7;180;14.99;170;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-06;43.0;57.0;0.9;0.0;0.0;6.04;90;16.11;100;21.03;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-01-17;10.9;36.0;0.0;0.0;0.0;5.82;200;14.09;180;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-20;23.0;35.1;0.19;3.5;2.01;6.71;30;19.91;30;25.95;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2009-01-26;33.1;46.9;0.0;0.0;0.0;3.58;100;10.07;100;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-06;19.9;55.0;0.0;0.0;0.0;5.82;220;17.0;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-09;39.9;66.0;0.0;0.0;0.0;6.04;100;14.09;120;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-15;34.0;54.0;0.0;0.0;0.0;4.7;30;14.09;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-16;30.9;46.0;0.0;0.0;0.0;7.38;60;16.11;50;21.03;No;No;No;Yes;No;No;No;No;Yes;No;No;No;No;Yes;No;No;No
2009-02-28;37.9;57.9;0.72;0.0;0.0;9.62;70;21.03;80;25.05;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-03-01;35.1;37.9;1.38;0.0;0.0;12.75;50;23.04;40;27.96;Yes;No;Yes;Yes;No;No;No;Yes;Yes;No;No;No;No;Yes;No;No;No
2009-03-04;19.9;50.0;0.0;0.0;0.0;2.91;220;14.09;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-14;39.0;44.1;0.73;0.0;0.0;4.92;50;14.09;60;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-03-17;43.0;62.1;0.0;0.0;0.0;7.38;40;14.99;20;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2009-03-25;42.1;48.9;0.01;0.0;0.0;4.7;130;12.97;110;16.11;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-03-27;57.0;68.0;0.62;0.0;0.0;3.36;170;14.09;180;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-04-05;44.1;82.9;0.0;0.0;0.0;8.5;210;23.04;200;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-07;41.0;51.1;0.0;0.0;0.0;10.07;260;21.92;280;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-14;55.9;73.0;0.12;0.0;0.0;7.61;210;14.99;200;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2009-04-19;53.1;73.0;0.0;0.0;0.0;8.5;230;21.03;240;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-04-20;59.0;79.0;0.36;0.0;0.0;10.29;220;23.94;200;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-11;48.0;68.0;0.07;0.0;0.0;6.49;50;17.0;20;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-12;46.9;75.9;0.0;0.0;0.0;3.36;20;14.09;30;19.91;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-05-14;60.1;82.0;0.0;0.0;0.0;7.16;170;16.11;180;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-23;61.0;84.9;0.0;0.0;0.0;5.59;180;14.99;170;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-26;69.1;82.0;0.69;0.0;0.0;6.49;130;17.0;130;21.92;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-20;73.9;96.1;0.0;0.0;0.0;7.61;270;16.11;290;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-06-27;71.1;93.9;0.0;0.0;0.0;5.59;40;14.99;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-30;64.0;95.0;0.0;0.0;0.0;4.92;240;19.91;250;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-06;70.0;82.9;0.12;0.0;0.0;5.14;40;12.08;40;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2009-07-09;69.1;87.1;0.0;0.0;0.0;6.93;90;14.09;80;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-10;66.0;84.0;0.0;0.0;0.0;4.7;90;8.05;;;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-23;72.0;93.0;0.0;0.0;0.0;5.59;210;14.99;200;21.92;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-07-29;72.0;91.9;0.28;0.0;0.0;10.29;230;31.09;240;40.04;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-07-30;73.9;95.0;0.06;0.0;0.0;8.28;210;23.94;210;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2009-08-02;73.9;82.9;0.27;0.0;0.0;8.95;230;16.11;230;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2009-08-05;72.0;96.1;0.18;0.0;0.0;5.82;230;17.9;230;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-07;68.0;88.0;0.0;0.0;0.0;3.36;180;14.09;180;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-08-09;70.0;99.0;0.0;0.0;0.0;7.61;220;23.04;210;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-12;71.1;84.0;0.03;0.0;0.0;2.24;30;12.08;30;19.91;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-24;68.0;87.1;0.0;0.0;0.0;3.8;40;12.97;50;16.11;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-27;70.0;93.9;0.0;0.0;0.0;4.7;230;12.08;90;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-06;63.0;87.1;0.0;0.0;0.0;6.26;100;19.91;90;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-07;63.0;79.0;0.57;0.0;0.0;7.38;50;17.9;40;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2009-09-08;68.0;80.1;0.0;0.0;0.0;8.05;30;17.0;30;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-09-13;59.0;82.0;0.0;0.0;0.0;4.25;50;12.97;10;21.92;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-14;57.0;87.1;0.0;0.0;0.0;2.01;90;12.08;120;16.11;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-18;64.9;77.0;0.0;0.0;0.0;2.01;110;10.07;130;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-19;62.1;81.0;0.0;0.0;0.0;5.59;90;14.99;80;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-26;63.0;68.0;0.32;0.0;0.0;6.49;90;14.09;110;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2012-06-25;72.0;93.0;0.0;0.0;0.0;6.49;40;17.0;40;21.03;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-01;75.0;102.9;0.0;0.0;0.0;4.92;20;23.94;30;36.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2012-07-06;71.1;100.0;0.0;0.0;0.0;3.8;20;17.9;10;27.96;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-09;73.0;96.1;0.23;0.0;0.0;3.36;180;17.0;80;23.04;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-11;68.0;80.1;0.45;0.0;0.0;4.03;90;21.92;90;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-21;71.1;93.0;1.09;0.0;0.0;7.38;200;19.91;190;23.94;No;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-25;70.0;90.0;0.0;0.0;0.0;4.03;240;12.08;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-27;73.9;99.0;0.14;0.0;0.0;6.93;20;19.91;300;31.09;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-29;66.9;91.9;0.0;0.0;0.0;2.01;100;8.95;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-02;72.0;93.0;0.05;0.0;0.0;5.82;180;23.94;170;29.08;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-06;73.9;93.0;0.49;0.0;0.0;6.26;230;21.92;230;25.95;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-10;72.0;87.1;0.13;0.0;0.0;8.95;220;21.92;240;27.96;No;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2012-08-14;66.0;91.0;0.0;0.0;0.0;5.59;230;16.11;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-24;68.0;77.0;0.02;0.0;0.0;4.7;80;12.97;90;17.0;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-26;64.9;84.0;0.0;0.0;0.0;3.13;50;10.07;60;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-28;73.0;87.1;0.0;0.0;0.0;7.61;210;17.0;220;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-30;68.0;89.1;0.0;0.0;0.0;4.47;170;12.97;180;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-02;72.0;88.0;1.85;0.0;0.0;3.58;340;17.0;340;23.04;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-14;63.0;80.1;0.0;0.0;0.0;1.57;50;8.95;50;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-25;48.0;77.0;0.0;0.0;0.0;3.13;210;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-02;66.9;88.0;0.12;0.0;0.0;7.61;210;12.97;210;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-07;50.0;64.9;0.23;0.0;0.0;6.71;40;17.0;50;23.04;No;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2012-10-14;44.1;78.1;0.0;0.0;0.0;3.8;230;14.99;230;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-16;44.1;70.0;0.0;0.0;0.0;2.01;280;8.95;10;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-25;50.0;80.1;0.0;0.0;0.0;1.34;100;8.05;140;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-27;62.1;66.0;0.0;0.0;0.0;12.08;40;21.03;30;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-01;37.9;57.9;0.0;0.0;0.0;5.14;270;16.11;300;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-02;34.0;64.9;0.0;0.0;0.0;3.58;310;14.99;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-18;45.0;55.9;0.0;0.0;0.0;12.3;40;19.91;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-19;46.9;59.0;0.0;0.0;0.0;8.05;40;16.11;40;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-30;30.9;63.0;0.0;0.0;0.0;2.46;230;12.97;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-02;39.0;69.1;0.0;0.0;0.0;4.47;220;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-14;27.0;57.9;0.0;0.0;0.0;0.89;240;6.93;230;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-16;48.0;57.9;0.09;0.0;0.0;5.59;220;16.11;220;17.9;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-12-21;37.0;57.9;0.0;0.0;0.0;15.43;290;25.05;240;38.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-24;44.1;53.1;0.0;0.0;0.0;6.26;210;17.0;210;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-28;27.0;45.0;0.0;0.0;0.0;1.34;180;6.93;170;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-29;37.9;52.0;0.37;0.0;0.0;6.26;290;17.0;300;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-31;25.0;53.1;0.0;0.0;0.0;6.26;230;21.92;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-15;44.1;60.1;0.01;0.0;0.0;7.83;30;17.0;20;23.94;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-01-21;28.9;59.0;0.0;0.0;0.0;5.14;230;17.9;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-10;25.0;53.1;0.03;0.0;0.0;4.47;150;12.08;160;16.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-11;45.0;63.0;0.05;0.0;0.0;10.51;220;21.03;240;25.05;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-02-16;32.0;46.9;0.39;0.71;0.0;4.03;10;12.97;20;21.03;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2013-02-23;36.0;44.1;0.92;0.0;0.0;2.46;30;10.07;40;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-02-25;32.0;42.1;0.0;0.0;0.0;6.93;70;16.11;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-09;33.1;62.1;0.0;0.0;0.0;3.58;40;12.97;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-15;28.0;62.1;0.0;0.0;0.0;7.83;240;19.91;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-20;37.9;55.0;0.0;0.0;0.0;3.8;230;16.11;250;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-25;35.1;48.0;0.0;0.0;0.0;7.38;270;21.92;270;31.99;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-03-26;32.0;50.0;0.0;0.0;0.0;6.49;310;12.97;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-30;37.9;66.0;0.0;0.0;0.0;3.58;230;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-05;39.0;63.0;0.04;0.0;0.0;2.68;30;12.08;30;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-09;57.0;82.9;0.0;0.0;0.0;7.61;240;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-17;57.9;80.1;0.0;0.0;0.0;7.61;200;14.99;200;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-20;44.1;64.0;0.01;0.0;0.0;3.8;240;21.92;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-21;41.0;61.0;0.0;0.0;0.0;9.4;50;21.03;50;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-02;52.0;64.9;0.0;0.0;0.0;7.61;50;17.0;50;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-04;48.9;64.0;0.0;0.0;0.0;11.63;50;19.91;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-05;50.0;60.1;0.0;0.0;0.0;12.3;80;21.03;80;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-10;55.9;84.0;0.0;0.0;0.0;7.16;240;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-11;64.9;81.0;0.3;0.0;0.0;9.62;230;23.04;240;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-17;61.0;86.0;0.0;0.0;0.0;2.46;110;12.97;110;16.11;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-05-25;41.0;73.0;0.0;0.0;0.0;2.91;270;14.99;260;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-05;64.0;82.0;0.0;0.0;0.0;6.04;110;14.09;120;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-11;70.0;86.0;0.0;0.0;0.0;8.5;240;16.11;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-14;59.0;80.1;0.0;0.0;0.0;4.25;340;14.09;80;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-19;64.9;80.1;0.0;0.0;0.0;5.14;70;12.97;90;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-16;69.1;93.9;0.0;0.0;0.0;2.01;210;12.08;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-21;73.0;89.1;0.0;0.0;0.0;6.71;220;16.11;210;21.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-08-02;66.9;89.1;0.77;0.0;0.0;0.67;250;14.99;240;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-05;64.0;82.0;0.0;0.0;0.0;4.47;190;12.97;190;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-12;73.0;91.9;0.66;0.0;0.0;2.01;300;19.91;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-13;71.1;90.0;0.08;0.0;0.0;5.59;230;21.03;240;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-18;66.9;81.0;0.05;0.0;0.0;5.59;270;12.97;260;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-29;72.0;87.1;0.0;0.0;0.0;6.93;50;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-03;71.1;89.1;0.3;0.0;0.0;4.03;270;21.92;270;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-04;68.0;84.9;0.0;0.0;0.0;2.91;80;12.97;60;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-08;57.9;63.0;0.0;0.0;0.0;11.41;50;19.91;60;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-13;62.1;66.9;0.07;0.0;0.0;7.16;30;12.97;30;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-29;50.0;73.0;0.0;0.0;0.0;1.79;40;8.05;40;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-30;55.0;72.0;0.0;0.0;0.0;4.92;240;14.09;220;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-02;50.0;71.1;0.0;0.0;0.0;4.03;300;14.99;280;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-09;30.2;59.0;0.0;0.0;0.0;3.8;230;14.99;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-12;35.1;61.0;0.01;0.0;0.0;6.93;40;19.91;30;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-17;52.0;71.1;0.08;0.0;0.0;5.37;210;18.12;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-18;54.0;75.0;0.06;0.0;0.0;7.16;230;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-19;41.0;55.9;0.0;0.0;0.0;6.49;20;14.09;30;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-28;23.2;45.0;0.0;0.0;0.0;1.79;310;12.97;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-19;30.2;62.1;0.0;0.0;0.0;7.61;230;21.92;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-21;50.0;73.9;0.0;0.0;0.0;9.17;220;21.03;200;29.97;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-01-02;37.0;48.9;0.33;0.0;0.0;2.68;310;12.97;320;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-11;45.0;69.1;0.28;0.0;0.0;10.29;230;59.95;220;86.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-13;33.1;62.1;0.0;0.0;0.0;7.16;220;21.03;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-15;33.1;59.0;0.0;0.0;0.0;4.47;180;17.0;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-18;27.1;46.9;0.0;0.0;0.0;6.71;270;17.0;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-19;30.2;54.0;0.0;0.0;0.0;8.5;240;17.0;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-27;33.1;64.9;0.0;0.0;0.0;9.62;230;18.12;30;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-08;34.0;50.0;0.0;0.0;0.0;2.46;70;8.95;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-11;25.2;35.1;0.0;0.0;0.0;7.16;50;14.09;80;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-14;27.1;55.9;0.0;0.0;1.18;8.95;220;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-16;29.1;53.1;0.0;0.0;0.0;4.47;250;16.11;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-19;48.9;72.0;0.5;0.0;0.0;8.28;240;21.92;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-20;52.0;72.0;0.0;0.0;0.0;9.17;200;23.94;200;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-03;20.1;61.0;0.36;0.2;0.0;10.96;30;25.05;30;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-16;36.0;55.9;0.29;0.0;0.0;8.95;50;18.12;50;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-17;31.1;36.0;0.46;0.0;0.0;10.29;50;19.91;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-22;46.0;75.9;0.0;0.0;0.0;8.05;220;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-31;36.0;72.0;0.0;0.0;0.0;4.03;360;12.97;330;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-12;54.0;81.0;0.0;0.0;0.0;7.16;80;16.11;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-15;39.0;71.1;1.32;0.0;0.0;10.51;280;25.05;270;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-25;48.9;80.1;0.47;0.0;0.0;6.71;210;23.94;290;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-27;51.1;84.0;0.0;0.0;0.0;5.14;130;16.11;130;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-02;51.1;69.1;0.0;0.0;0.0;4.7;230;14.09;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-03;53.1;75.9;0.0;0.0;0.0;5.82;240;17.0;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-07;59.0;78.1;0.0;0.0;0.0;3.58;110;12.08;120;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-19;45.0;73.0;0.0;0.0;0.0;2.01;40;12.08;130;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-21;60.1;87.1;0.0;0.0;0.0;7.83;240;16.11;250;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-23;63.0;82.0;0.0;0.0;0.0;3.58;300;12.97;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-27;66.0;90.0;0.22;0.0;0.0;5.82;300;25.05;280;40.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-07;62.1;84.9;0.0;0.0;0.0;2.91;80;8.95;80;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-09;69.1;90.0;0.29;0.0;0.0;3.8;320;14.09;300;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-11;68.0;93.9;0.58;0.0;0.0;4.7;200;31.99;190;44.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-23;64.9;84.9;0.0;0.0;0.0;5.14;120;10.07;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-24;64.9;86.0;0.0;0.0;0.0;5.82;190;12.97;190;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-26;69.1;93.0;0.0;0.0;0.0;4.03;30;12.08;20;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-29;60.1;84.9;0.0;0.0;0.0;3.8;40;8.95;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-30;66.0;90.0;0.0;0.0;0.0;5.82;230;12.08;190;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-07;66.9;96.1;0.0;0.0;0.0;10.51;230;19.91;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-12;66.0;90.0;0.0;0.0;0.0;3.36;160;10.07;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-18;64.0;86.0;0.0;0.0;0.0;5.82;100;14.99;140;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-21;73.0;79.0;1.16;0.0;0.0;2.68;120;12.08;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-31;66.0;82.0;0.08;0.0;0.0;2.68;120;8.95;90;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-01;64.9;75.9;0.71;0.0;0.0;7.38;80;19.91;90;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-03;66.9;80.1;0.0;0.0;0.0;1.34;120;10.07;140;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-08;69.1;81.0;0.0;0.0;0.0;3.58;120;12.08;120;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-10;66.0;81.0;0.56;0.0;0.0;6.71;100;14.99;110;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-13;66.9;82.0;0.0;0.0;0.0;3.8;290;12.97;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-20;70.0;90.0;1.06;0.0;0.0;2.24;300;31.09;320;57.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-24;63.0;81.0;0.0;0.0;0.0;8.72;40;16.11;90;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-31;73.0;91.0;0.0;0.0;0.0;6.49;230;12.08;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-01;73.0;93.0;0.0;0.0;0.0;4.7;230;12.97;270;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-02;71.1;96.1;0.0;0.0;0.0;7.38;210;23.94;200;33.11;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-09-05;71.1;91.0;0.0;0.0;0.0;3.8;240;12.08;180;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-09;66.0;75.9;0.03;0.0;0.0;5.14;30;12.97;40;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-10;68.0;81.0;0.0;0.0;0.0;2.01;110;6.04;;;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-14;62.1;71.1;0.03;0.0;0.0;6.26;50;17.0;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-16;66.9;82.9;0.01;0.0;0.0;3.13;40;10.07;100;23.04;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-09-18;59.0;81.0;0.01;0.0;0.0;3.36;50;10.07;130;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-29;64.0;73.0;0.01;0.0;0.0;1.12;280;6.93;280;8.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-01;55.9;79.0;0.0;0.0;0.0;0.89;40;8.05;30;12.97;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-10-05;41.0;66.0;0.0;0.0;0.0;3.13;220;10.07;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-07;55.0;80.1;0.0;0.0;0.0;9.4;200;17.0;190;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-21;51.1;73.9;0.0;0.0;0.0;4.03;330;14.09;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-26;45.0;75.9;0.0;0.0;0.0;4.47;280;16.11;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-28;50.0;84.0;0.0;0.0;0.0;5.82;220;14.99;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-30;46.9;66.9;0.0;0.0;0.0;3.36;40;10.07;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-04;39.9;66.0;0.0;0.0;0.0;6.71;230;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-06;50.0;68.0;0.21;0.0;0.0;10.74;230;21.92;310;36.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-17;43.0;66.9;0.43;0.0;0.0;9.4;210;25.05;220;31.99;Yes;Yes;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2014-11-27;35.1;46.9;0.05;0.0;0.0;4.25;320;12.08;310;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-05;39.9;52.0;0.0;0.0;0.0;2.46;90;8.05;50;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-15;30.2;60.1;0.0;0.0;0.0;1.57;90;12.08;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-16;37.0;52.0;0.32;0.0;0.0;3.13;200;10.07;180;14.09;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-12-17;39.0;60.1;0.0;0.0;0.0;3.58;250;12.97;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-20;31.1;39.0;0.07;0.0;0.0;2.91;60;12.97;50;16.11;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2014-12-21;37.9;50.0;0.0;0.0;0.0;4.03;80;10.07;80;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-24;46.0;66.0;1.71;0.0;0.0;7.38;230;18.12;190;25.05;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-26;30.2;57.9;0.0;0.0;0.0;1.57;220;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-30;28.2;41.0;0.02;0.0;0.0;5.82;40;17.0;40;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-01;23.2;51.1;0.0;0.0;0.0;4.7;230;14.99;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-08;11.1;27.1;0.0;0.0;0.0;5.37;210;14.99;360;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-10;22.1;39.0;0.0;0.0;0.0;1.57;20;8.05;30;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-15;31.1;41.0;0.0;0.0;0.0;3.13;230;8.95;240;10.07;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-17;27.1;51.1;0.0;0.0;0.0;4.7;170;12.08;140;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-18;41.0;60.1;0.49;0.0;0.0;5.37;300;18.12;310;31.09;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-01-22;30.2;59.0;0.0;0.0;0.0;2.91;270;12.97;280;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-24;35.1;48.9;0.14;0.0;0.0;5.82;310;12.97;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-02;29.1;62.1;0.39;0.0;0.0;13.42;230;25.95;300;38.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-05;27.1;50.0;0.0;0.0;0.0;6.26;320;16.11;330;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-12;29.1;54.0;0.0;0.0;0.0;5.59;310;21.03;300;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-21;18.1;39.9;0.0;0.0;0.0;3.36;160;8.95;150;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-26;28.2;35.1;0.72;3.19;3.94;6.26;50;17.0;30;25.05;Yes;Yes;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2015-02-27;23.2;45.0;0.0;0.0;3.15;3.13;30;10.07;30;14.09;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-03-02;34.0;61.0;0.0;0.0;0.0;4.92;320;12.97;280;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-04;37.9;75.0;0.02;0.0;0.0;13.87;230;29.97;230;38.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-09;48.0;64.9;0.0;0.0;0.0;3.8;250;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-19;39.9;54.0;0.34;0.0;0.0;4.92;90;14.09;100;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-29;45.0;64.9;0.0;0.0;0.0;3.36;250;14.09;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-30;45.0;59.0;0.01;0.0;0.0;2.91;160;10.07;140;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-02;46.9;54.0;0.01;0.0;0.0;5.14;90;12.97;70;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-05;44.1;61.0;0.01;0.0;0.0;9.62;250;21.03;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-19;37.0;59.0;0.0;0.0;0.0;8.05;190;17.0;190;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-23;31.1;64.0;0.04;0.0;0.0;7.83;180;21.03;170;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-25;27.1;46.9;0.0;0.0;0.0;3.58;270;14.09;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-26;22.1;51.1;0.0;0.0;0.0;2.46;240;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-29;31.1;54.0;0.16;0.0;0.0;8.95;250;23.94;260;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-02;29.1;60.1;0.0;0.0;0.0;3.8;210;10.07;190;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-07;60.1;79.0;0.0;0.0;0.0;12.75;230;23.04;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-15;48.9;66.9;0.0;0.0;0.0;10.51;230;23.04;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-16;34.0;57.9;0.45;0.0;0.0;8.05;50;25.05;50;34.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-19;33.1;45.0;0.25;0.0;0.0;5.37;100;12.08;130;16.11;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2019-02-25;37.0;59.0;0.0;0.0;0.0;7.83;290;19.91;270;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-02;37.0;59.0;0.0;0.0;0.0;4.25;120;12.97;110;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-08;39.0;48.9;0.1;0.0;0.0;4.7;130;10.07;130;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-13;32.0;64.0;0.0;0.0;0.0;4.7;170;12.97;170;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-20;32.0;53.1;0.05;0.0;0.0;6.71;50;12.97;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-22;42.1;63.0;0.0;0.0;0.0;9.4;230;21.03;270;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-23;35.1;62.1;0.0;0.0;0.0;6.04;270;17.0;310;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-31;44.1;64.9;0.01;0.0;0.0;9.17;210;19.91;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-01;34.0;53.1;0.0;0.0;0.0;5.82;50;17.0;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-12;59.0;69.1;0.65;0.0;0.0;9.17;180;17.0;150;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-15;46.9;71.1;0.05;0.0;0.0;10.51;230;29.08;280;36.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-18;61.0;80.1;0.0;0.0;0.0;11.41;230;23.04;200;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-26;51.1;77.0;0.21;0.0;0.0;12.97;230;36.01;230;46.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-27;45.0;73.9;0.0;0.0;0.0;8.05;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-01;63.0;84.0;0.0;0.0;0.0;8.05;240;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-03;63.0;84.0;0.0;0.0;0.0;8.28;220;18.12;220;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-05-04;64.9;86.0;0.63;0.0;0.0;7.38;240;35.12;230;44.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-05-05;63.0;77.0;0.36;0.0;0.0;6.71;240;23.04;250;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-10;66.0;78.1;0.0;0.0;0.0;8.28;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-16;51.1;79.0;0.0;0.0;0.0;4.03;230;14.99;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-18;62.1;91.0;0.0;0.0;0.0;2.01;250;8.95;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-25;71.1;91.9;0.0;0.0;0.0;6.71;200;16.11;180;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-27;68.0;89.1;0.0;0.0;0.0;3.13;350;12.97;10;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-29;68.0;95.0;0.0;0.0;0.0;5.37;250;14.09;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-01;61.0;84.0;0.0;0.0;0.0;2.91;40;12.08;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-03;60.1;82.0;0.0;0.0;0.0;4.7;40;14.09;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-17;72.0;93.0;0.0;0.0;0.0;9.84;210;19.91;210;23.94;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-06-18;71.1;91.0;0.06;0.0;0.0;9.4;230;17.0;240;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-21;64.9;84.9;0.0;0.0;0.0;7.61;300;19.91;310;29.08;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-06-22;63.0;84.0;0.01;0.0;0.0;4.03;40;12.08;10;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-28;70.0;97.0;1.09;0.0;0.0;3.8;150;23.04;120;34.0;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2019-06-29;68.0;91.9;0.03;0.0;0.0;4.03;90;12.08;80;14.99;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-30;69.1;93.9;0.0;0.0;0.0;5.14;300;14.09;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-05;70.0;91.0;0.31;0.0;0.0;4.7;220;14.99;150;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-07;75.0;93.0;0.21;0.0;0.0;6.04;180;21.03;180;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-09;73.0;84.9;0.0;0.0;0.0;6.26;50;14.09;60;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-11;75.0;93.0;0.0;0.0;0.0;9.17;230;36.01;230;46.08;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-13;73.0;95.0;0.0;0.0;0.0;4.92;100;12.08;260;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-21;73.0;99.0;0.0;0.0;0.0;9.62;230;23.04;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-23;64.0;82.0;1.16;0.0;0.0;5.14;30;21.92;260;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-25;63.0;87.1;0.0;0.0;0.0;4.25;80;14.99;90;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-26;64.9;87.1;0.0;0.0;0.0;3.8;40;14.09;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-29;66.0;93.0;0.0;0.0;0.0;4.92;170;12.08;160;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-30;68.0;93.9;0.0;0.0;0.0;6.26;170;14.09;180;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-08-05;68.0;84.9;0.22;0.0;0.0;2.68;300;14.09;310;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-10-15;45.0;55.0;0.07;0.0;0.0;3.58;40;10.07;30;14.09;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-10-16;46.0;57.9;0.0;0.0;0.0;6.04;40;14.09;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-19;34.0;61.0;0.0;0.0;0.0;2.01;30;12.97;80;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-20;35.1;72.0;0.0;0.0;0.0;2.91;230;12.08;210;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-22;46.0;78.1;0.0;0.0;0.0;4.47;240;17.0;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-23;60.1;81.0;0.0;0.0;0.0;8.95;200;21.03;190;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-10-26;44.1;64.0;0.06;0.0;0.0;5.82;40;14.09;50;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-11-04;37.9;64.0;0.0;0.0;0.0;2.91;80;14.99;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-05;37.9;64.9;0.0;0.0;0.0;2.91;270;14.99;280;23.04;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-14;48.0;66.9;0.01;0.0;0.0;4.47;20;12.08;20;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-11-24;48.0;57.9;0.0;0.0;0.0;3.36;50;10.07;20;14.99;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-11-26;41.0;61.0;0.07;0.0;0.0;3.36;300;14.09;320;25.05;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2009-12-05;36.0;48.0;0.41;0.0;0.0;4.92;350;14.09;330;23.04;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-12-06;28.0;44.1;0.0;0.0;0.0;2.01;50;12.97;30;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-12;21.9;43.0;0.0;0.0;0.0;2.24;80;8.95;130;12.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-19;30.0;34.0;0.44;0.0;0.0;7.61;50;21.03;340;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-20;26.1;45.0;0.0;0.0;0.0;2.68;300;14.09;300;23.94;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-25;36.0;59.0;0.8;0.0;0.0;10.96;110;21.03;100;36.91;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-12-29;24.1;42.1;0.0;0.0;0.0;6.26;300;14.99;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-01;30.9;48.0;0.0;0.0;0.0;4.7;330;12.08;320;21.03;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2010-01-03;18.0;32.0;0.0;0.0;0.0;8.5;290;17.0;300;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-05;17.1;36.0;0.0;0.0;0.0;5.14;310;14.99;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-06;19.0;41.0;0.0;0.0;0.0;5.59;280;14.09;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-16;30.0;62.1;0.02;0.0;0.0;1.57;230;8.95;230;12.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-01-18;39.0;62.1;0.0;0.0;0.0;3.13;360;12.08;10;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-23;30.0;50.0;0.0;0.0;0.0;4.7;100;12.08;100;17.9;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2010-01-25;46.9;66.0;0.86;0.0;0.0;17.67;230;29.08;170;38.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-01-26;30.9;51.1;0.0;0.0;0.0;8.28;240;19.91;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-31;17.1;37.9;0.0;0.0;4.02;2.24;10;12.97;360;19.91;Yes;No;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-02-03;33.1;51.1;0.01;0.0;0.0;3.13;350;12.08;320;17.9;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No
2010-02-08;21.9;46.0;0.0;0.0;0.0;2.24;40;8.95;290;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-15;28.9;51.1;0.03;0.0;0.0;7.61;230;27.96;210;36.01;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-02-24;37.0;48.0;0.12;0.0;0.0;5.59;50;12.08;40;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-02-27;30.0;51.1;0.0;0.0;0.0;6.71;270;14.99;310;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-28;26.1;51.1;0.0;0.0;0.0;6.71;300;17.9;310;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-10;50.0;69.1;0.16;0.0;0.0;8.05;220;23.04;230;29.08;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-03-17;35.1;64.0;0.0;0.0;0.0;1.79;100;12.08;50;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-28;37.9;69.1;0.09;0.0;0.0;11.63;180;27.96;170;42.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-04-01;43.0;84.0;0.0;0.0;0.0;2.46;240;10.07;240;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-05;57.9;88.0;0.0;0.0;0.0;6.71;240;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-10;42.1;70.0;0.0;0.0;0.0;2.01;10;10.07;90;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-11;41.0;75.9;0.0;0.0;0.0;3.8;230;12.97;260;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-12;46.0;78.1;0.0;0.0;0.0;4.03;50;16.11;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-17;55.9;78.1;0.0;0.0;0.0;7.61;280;19.91;250;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-18;41.0;66.0;0.0;0.0;0.0;4.7;290;14.09;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-23;48.0;72.0;0.0;0.0;0.0;1.34;30;8.05;40;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-24;57.0;77.0;0.11;0.0;0.0;5.59;110;14.09;160;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2010-04-25;62.1;81.0;0.29;0.0;0.0;14.32;230;27.96;220;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2010-04-28;41.0;66.9;0.0;0.0;0.0;4.47;290;17.0;300;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-05;55.9;89.1;0.0;0.0;0.0;4.47;140;14.99;190;17.0;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-11;55.9;68.0;0.0;0.0;0.0;7.16;140;19.91;150;23.04;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-05-18;54.0;63.0;0.08;0.0;0.0;3.8;30;12.08;40;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-05-21;54.0;84.0;0.0;0.0;0.0;2.68;120;10.07;120;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-03;70.0;89.1;0.0;0.0;0.0;6.04;230;12.97;230;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-06-08;64.0;82.9;0.0;0.0;0.0;4.7;30;10.07;100;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-10;73.9;91.0;0.0;0.0;0.0;7.38;230;17.9;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-11;70.0;91.0;0.0;0.0;0.0;4.7;70;12.97;20;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-17;71.1;91.0;0.0;0.0;0.0;3.36;280;16.11;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-22;69.1;98.1;0.0;0.0;0.0;4.47;200;17.9;200;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-29;75.0;96.1;0.0;0.0;0.0;7.16;230;17.0;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-06-30;69.1;78.1;0.18;0.0;0.0;5.59;40;12.97;120;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-07-04;61.0;93.0;0.0;0.0;0.0;4.92;230;12.97;260;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-07;69.1;102.0;0.0;0.0;0.0;4.25;40;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-09;72.0;95.0;0.4;0.0;0.0;3.58;230;36.01;230;48.09;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;Yes;Yes;No;No;No
2010-07-10;73.9;91.0;0.0;0.0;0.0;4.25;140;12.97;320;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2010-07-13;72.0;93.0;0.38;0.0;0.0;7.16;240;16.11;310;21.92;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2010-07-18;71.1;95.0;0.01;0.0;0.0;7.16;230;23.04;230;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-07-19;75.0;93.0;0.0;0.0;0.0;12.53;230;25.95;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-26;77.0;93.9;0.0;0.0;0.0;6.26;50;14.99;60;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-11;78.1;98.1;0.41;0.0;0.0;6.71;320;17.0;310;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-16;73.9;95.0;0.0;0.0;0.0;5.14;220;12.97;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-22;73.0;91.0;0.07;0.0;0.0;4.7;230;12.97;230;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-25;66.9;80.1;0.05;0.0;0.0;2.24;40;10.07;120;14.09;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-08-29;66.9;90.0;0.0;0.0;0.0;2.91;90;12.08;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-03;73.0;99.0;0.0;0.0;0.0;5.59;240;16.11;250;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-04;59.0;87.1;0.0;0.0;0.0;5.14;280;14.99;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-07;66.0;93.9;0.0;0.0;0.0;6.04;210;14.09;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-15;59.0;93.9;0.0;0.0;0.0;3.8;190;12.08;150;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-26;68.0;84.0;2.25;0.0;0.0;6.26;40;16.11;30;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-09-27;69.1;75.9;0.7;0.0;0.0;8.72;150;14.99;140;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-09-28;64.0;81.0;0.05;0.0;0.0;6.71;170;17.0;160;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-01;55.0;78.1;0.01;0.0;0.0;5.82;20;17.9;30;27.96;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2010-10-06;44.1;70.0;0.0;0.0;0.0;4.47;290;17.0;290;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-08;48.0;79.0;0.0;0.0;0.0;2.01;40;12.97;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-09;48.0;84.0;0.0;0.0;0.0;1.12;270;6.93;300;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-02;41.0;57.9;0.0;0.0;0.0;7.83;50;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-07;30.0;53.1;0.0;0.0;0.0;2.46;40;16.11;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-18;34.0;62.1;0.0;0.0;0.0;2.24;310;12.97;340;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-19;34.0;61.0;0.0;0.0;0.0;1.79;50;12.08;50;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-23;54.0;77.0;0.0;0.0;0.0;7.61;230;23.94;240;29.97;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-11-26;50.0;66.0;0.07;0.0;0.0;7.61;240;21.92;240;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-11-28;26.1;52.0;0.0;0.0;0.0;2.24;90;12.08;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-02;26.1;48.9;0.0;0.0;0.0;2.01;310;10.07;340;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-07;21.0;35.1;0.0;0.0;0.0;7.83;310;17.0;300;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-08;16.0;37.9;0.0;0.0;0.0;2.68;280;10.07;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-13;25.0;36.0;0.0;0.0;0.0;11.18;300;17.9;280;31.09;Yes;No;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-12-19;28.9;43.0;0.0;0.0;0.0;4.47;30;14.09;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-21;28.0;42.1;0.0;0.0;0.0;2.24;240;8.05;230;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-23;32.0;45.0;0.0;0.0;0.0;7.83;330;17.9;330;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-25;32.0;44.1;0.15;0.39;0.0;2.46;50;8.95;140;16.11;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;Yes;No;No;No
2010-12-29;24.1;46.9;0.0;0.0;0.98;1.57;360;12.08;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-04;23.0;54.0;0.0;0.0;0.0;4.92;230;17.9;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-08;24.1;44.1;0.0;0.0;0.0;6.71;300;19.91;320;31.09;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No
2011-01-14;19.0;41.0;0.0;0.0;0.0;1.12;230;8.05;230;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-16;25.0;53.1;0.0;0.0;0.0;1.34;60;8.95;50;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-17;30.0;46.0;0.03;0.0;0.0;7.16;50;14.09;50;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2011-01-20;28.0;51.1;0.0;0.0;0.0;3.13;200;14.09;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-29;24.1;57.9;0.0;0.0;0.0;6.04;230;21.03;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-09;24.1;48.0;0.0;0.0;0.0;4.47;170;12.08;240;17.0;No;No;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No;No;No
2011-02-15;32.0;57.0;0.0;0.0;0.0;4.25;40;14.09;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-20;30.9;62.1;0.0;0.0;0.0;4.92;210;17.0;200;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-21;44.1;75.9;0.0;0.0;0.0;13.2;220;23.04;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-24;37.0;59.0;0.02;0.0;0.0;4.7;190;16.11;180;23.04;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-27;44.1;81.0;0.0;0.0;0.0;8.28;230;19.91;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-08;28.0;57.9;0.0;0.0;0.0;6.26;100;14.09;120;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-17;37.0;70.0;0.0;0.0;0.0;2.91;180;8.95;220;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-28;30.9;48.9;0.02;0.0;0.0;2.46;40;12.97;50;17.0;Yes;No;Yes;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No
2011-03-31;39.9;48.0;0.03;0.0;0.0;3.58;120;10.07;10;12.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-05;46.9;71.1;0.5;0.0;0.0;13.2;250;38.03;260;51.0;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-04-20;64.0;84.0;0.0;0.0;0.0;11.63;240;23.94;250;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-25;66.0;84.0;0.0;0.0;0.0;10.07;230;17.9;180;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-29;52.0;75.9;0.0;0.0;0.0;5.14;240;17.9;250;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-02;55.9;82.9;0.0;0.0;0.0;7.16;240;17.0;250;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-03;63.0;84.9;0.0;0.0;0.0;11.41;230;21.92;240;25.05;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-05-05;42.1;68.0;0.0;0.0;0.0;3.13;230;12.97;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-06;44.1;72.0;0.3;0.0;0.0;7.61;210;19.91;210;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-07;53.1;73.9;0.0;0.0;0.0;3.36;250;12.08;240;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-05-11;57.0;79.0;0.0;0.0;0.0;3.36;110;8.95;140;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-05-15;63.0;80.1;0.02;0.0;0.0;5.82;260;16.11;250;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-19;53.1;78.1;0.0;0.0;0.0;2.91;240;14.09;240;17.0;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-21;55.0;84.0;0.0;0.0;0.0;2.01;30;10.07;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-25;64.9;93.0;0.0;0.0;0.0;3.13;220;12.08;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-27;64.9;82.0;1.64;0.0;0.0;6.93;280;16.11;290;21.92;Yes;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-05-28;64.9;86.0;0.0;0.0;0.0;4.03;120;14.99;130;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-14;64.0;84.0;0.0;0.0;0.0;4.92;30;12.97;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-18;68.0;95.0;0.24;0.0;0.0;6.49;260;21.92;260;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-27;73.0;93.0;0.03;0.0;0.0;5.59;140;17.0;360;21.92;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-09;73.0;89.1;0.09;0.0;0.0;5.14;40;12.97;40;25.05;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-11;73.9;96.1;0.0;0.0;0.0;6.26;220;17.0;310;25.05;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-12;78.1;100.0;0.0;0.0;0.0;6.49;230;17.0;210;29.97;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-13;75.9;97.0;0.0;0.0;0.0;3.13;20;12.97;300;23.04;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-19;70.0;96.1;0.0;0.0;0.0;4.92;260;12.08;220;14.99;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-20;75.0;100.0;0.0;0.0;0.0;2.46;180;25.95;180;31.99;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-29;75.0;104.0;0.0;0.0;0.0;3.8;270;12.08;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-30;75.0;100.0;2.1;0.0;0.0;4.7;140;21.03;40;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-08-06;73.0;89.1;4.31;0.0;0.0;5.37;120;14.99;190;21.92;Yes;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-08-07;75.0;96.1;0.0;0.0;0.0;7.38;270;14.99;250;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-09;73.0;93.9;0.0;0.0;0.0;5.14;250;16.11;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-15;64.0;84.9;0.0;0.0;0.0;5.14;270;12.97;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-21;71.1;91.9;1.0;0.0;0.0;8.95;230;19.91;240;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-08-27;72.0;78.1;0.54;0.0;0.0;13.65;20;23.04;330;38.92;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-05;72.0;86.0;0.12;0.0;0.0;8.28;190;16.11;170;25.95;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-16;55.0;60.1;0.09;0.0;0.0;8.28;40;19.91;30;23.94;Yes;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-17;55.0;61.0;0.23;0.0;0.0;8.05;50;14.09;30;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-18;57.0;70.0;0.0;0.0;0.0;7.38;40;14.09;40;17.0;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-19;60.1;75.0;0.0;0.0;0.0;2.91;140;8.95;140;12.08;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-20;64.0;78.1;0.0;0.0;0.0;1.34;130;6.93;130;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-25;70.0;80.1;0.0;0.0;0.0;5.82;150;17.9;170;23.94;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-27;73.0;87.1;0.0;0.0;0.0;7.61;210;12.97;190;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-28;66.9;82.9;0.78;0.0;0.0;4.25;250;21.92;240;27.96;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-10-09;52.0;77.0;0.0;0.0;0.0;6.26;50;16.11;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-12;63.0;78.1;0.09;0.0;0.0;4.25;90;12.97;120;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-10-14;53.1;73.9;0.0;0.0;0.0;9.62;260;19.91;270;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-17;55.0;84.9;0.0;0.0;0.0;8.72;220;19.91;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-25;45.0;71.1;0.0;0.0;0.0;1.12;30;10.07;30;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-02;34.0;64.0;0.0;0.0;0.0;0.67;120;6.93;30;10.07;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-09;39.0;71.1;0.0;0.0;0.0;0.22;230;6.04;130;6.93;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-13;39.9;66.9;0.0;0.0;0.0;10.51;240;21.92;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-14;55.9;75.9;0.0;0.0;0.0;12.97;240;23.94;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-20;46.0;73.9;0.0;0.0;0.0;6.49;230;19.91;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-27;51.1;75.0;0.0;0.0;0.0;8.95;230;19.91;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-03;35.1;57.0;0.0;0.0;0.0;4.92;90;14.09;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-08;33.1;51.1;0.0;0.0;0.0;2.46;320;10.07;310;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-17;30.9;48.9;0.09;0.0;0.0;3.36;30;12.08;10;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-18;27.0;48.9;0.0;0.0;0.0;2.01;360;12.97;20;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-30;36.0;62.1;0.0;0.0;0.0;9.4;220;19.91;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-04;19.0;44.1;0.0;0.0;0.0;6.04;230;16.11;210;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-07;39.0;72.0;0.0;0.0;0.0;6.04;240;14.09;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-09;43.0;48.9;0.28;0.0;0.0;3.58;100;8.95;140;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-01-13;30.0;55.0;0.0;0.0;0.0;11.86;240;31.09;240;40.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-14;23.0;46.0;0.0;0.0;0.0;5.14;230;17.9;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-15;30.0;44.1;0.0;0.0;0.0;3.58;10;14.09;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-24;43.0;64.0;0.0;0.0;0.0;4.25;230;10.07;260;12.97;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-26;39.9;69.1;0.0;0.0;0.0;6.71;190;23.04;200;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-05;32.0;50.0;0.15;0.0;0.0;5.59;40;14.99;40;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-10;28.9;50.0;0.0;0.0;0.0;3.58;230;12.08;230;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-21;28.0;57.9;0.0;0.0;0.0;7.16;220;17.9;190;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-23;45.0;73.9;0.2;0.0;0.0;8.5;300;23.94;290;44.07;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-01;52.0;80.1;0.01;0.0;0.0;9.62;240;25.05;240;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-09;39.9;61.0;0.28;0.0;0.0;5.14;360;14.99;10;27.96;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-10;39.0;57.0;0.0;0.0;0.0;5.59;60;14.99;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-16;57.9;80.1;0.19;0.0;0.0;4.7;240;12.08;350;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-17;57.9;79.0;0.1;0.0;0.0;3.8;50;12.97;130;17.9;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-04-01;48.9;69.1;0.0;0.0;0.0;6.26;50;21.03;50;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-03;42.1;77.0;0.0;0.0;0.0;5.59;220;17.0;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-05;46.9;63.0;0.17;0.0;0.0;7.61;100;16.11;80;21.92;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-07;37.0;68.0;0.0;0.0;0.0;3.13;260;12.08;290;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-09;45.0;73.9;0.0;0.0;0.0;6.49;230;21.92;230;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-13;36.0;69.1;0.0;0.0;0.0;2.01;260;8.05;350;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-15;57.9;81.0;0.0;0.0;0.0;12.3;230;21.92;220;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-26;55.9;77.0;0.38;0.0;0.0;9.62;230;21.92;260;33.11;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-04-30;61.0;80.1;0.0;0.0;0.0;7.16;200;16.11;210;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-03;64.0;91.0;0.0;0.0;0.0;4.92;280;10.07;270;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-05;64.0;84.0;1.58;0.0;0.0;4.47;40;14.09;40;21.92;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-06;61.0;73.0;0.01;0.0;0.0;7.16;40;14.99;40;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-25;62.1;88.0;0.0;0.0;0.0;3.58;80;12.08;60;14.99;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-03;52.0;81.0;0.0;0.0;0.0;5.37;240;17.0;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-05;57.0;75.9;0.0;0.0;0.0;6.93;50;16.11;90;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-13;63.0;84.0;0.28;0.0;0.0;6.04;50;17.0;40;23.94;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-06-15;59.0;80.1;0.0;0.0;0.0;8.05;50;17.0;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-19;66.9;91.9;0.0;0.0;0.0;5.14;250;12.97;260;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-22;71.1;95.0;0.1;0.0;0.0;6.04;320;17.0;310;29.08;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-06-27;55.0;87.1;0.0;0.0;0.0;3.13;20;14.09;10;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-30;70.0;105.1;0.0;0.0;0.0;4.7;240;14.09;290;21.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-08;75.9;105.1;0.0;0.0;0.0;8.28;220;14.99;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-13;72.0;88.0;0.0;0.0;0.0;3.8;150;10.07;;;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-19;75.9;99.0;0.0;0.0;0.0;9.62;230;17.9;140;36.01;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-20;73.9;95.0;0.14;0.0;0.0;6.71;210;29.08;210;44.07;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-24;73.0;96.1;0.01;0.0;0.0;6.26;270;23.94;280;38.03;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-30;71.1;89.1;0.0;0.0;0.0;5.59;130;21.92;140;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-17;64.9;91.9;0.0;0.0;0.0;4.03;240;16.11;270;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-18;66.9;86.0;0.0;0.0;0.0;4.92;50;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-25;63.0;72.0;0.41;0.0;0.0;3.58;340;12.08;350;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-07;71.1;84.9;0.0;0.0;0.0;2.91;80;8.95;100;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-08;69.1;90.0;0.31;0.0;0.0;6.04;230;17.9;310;27.96;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-13;55.0;80.1;0.0;0.0;0.0;3.58;70;12.08;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-22;63.0;84.9;0.0;0.0;0.0;8.95;240;21.03;180;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-24;51.1;72.0;0.0;0.0;0.0;3.13;40;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-26;54.0;82.9;0.0;0.0;0.0;3.8;210;12.97;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-27;59.0;84.9;0.0;0.0;0.0;1.79;230;10.07;260;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-01;61.0;66.9;0.14;0.0;0.0;4.7;80;12.08;70;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-10-04;64.0;79.0;0.0;0.0;0.0;2.91;240;8.95;270;14.99;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-24;51.1;82.0;0.0;0.0;0.0;2.24;240;8.95;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-28;51.1;64.0;0.03;0.0;0.0;9.84;40;17.9;330;25.95;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-11-04;42.1;55.0;0.0;0.0;0.0;5.59;40;12.97;50;16.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-05;37.0;55.0;0.0;0.0;0.0;4.7;40;12.97;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-06;33.1;46.9;0.0;0.0;0.0;5.59;50;16.11;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-24;32.0;55.0;0.0;0.0;0.0;5.59;330;14.09;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-28;28.9;53.1;0.0;0.0;0.0;2.24;340;10.07;40;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-04;48.9;71.1;0.0;0.0;0.0;5.14;240;16.11;250;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-05;44.1;64.9;0.0;0.0;0.0;5.14;230;12.97;20;17.9;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-06;37.0;51.1;0.0;0.0;0.0;6.71;70;14.99;80;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-20;39.9;62.1;0.42;0.0;0.0;10.07;180;29.08;170;44.07;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-27;34.0;50.0;0.0;0.0;0.0;7.38;290;14.99;290;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-01;43.0;50.0;0.21;0.0;0.0;6.49;220;19.91;220;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-07;28.9;52.0;0.0;0.0;0.0;2.24;50;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-11;41.0;51.1;0.22;0.0;0.0;3.13;70;10.07;90;14.09;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-01-12;48.9;71.1;0.0;0.0;0.0;2.01;130;8.05;140;12.08;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-16;42.1;50.0;0.18;0.0;0.0;2.46;20;8.05;170;12.97;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-01-19;26.1;54.0;0.0;0.0;0.0;3.58;210;12.08;210;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-20;35.1;63.0;0.0;0.0;0.0;6.49;280;14.99;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-25;19.9;28.0;0.32;0.2;0.0;3.8;230;12.08;140;21.03;No;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2013-01-28;32.0;51.1;0.01;0.0;0.0;6.26;230;14.09;230;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-01-31;33.1;63.0;0.09;0.0;0.0;13.2;230;29.97;250;40.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-01;26.1;39.9;0.0;0.0;0.0;9.4;290;21.92;320;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-02;19.0;45.0;0.0;0.0;0.0;6.04;240;19.91;250;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-03;35.1;50.0;0.0;0.0;0.0;5.37;240;16.11;300;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-04;26.1;48.9;0.0;0.0;0.0;4.7;220;12.97;320;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-06;30.0;62.1;0.0;0.0;0.0;3.13;110;12.08;90;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-20;27.0;52.0;0.0;0.0;0.0;5.14;260;16.11;260;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-22;32.0;42.1;0.36;0.0;0.0;4.92;90;16.11;100;21.92;No;No;Yes;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No
2013-03-06;37.0;46.0;0.01;0.0;0.0;10.74;320;21.92;330;38.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-12;48.0;69.1;0.65;0.0;0.0;9.84;200;23.04;190;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-13;34.0;57.9;0.0;0.0;0.0;6.93;300;17.9;250;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-17;39.0;61.0;0.0;0.0;0.0;10.29;50;19.91;50;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-23;35.1;55.0;0.0;0.0;0.0;1.12;30;6.93;130;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-28;28.0;55.9;0.0;0.0;0.0;4.7;290;14.99;360;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-31;48.0;68.0;0.87;0.0;0.0;8.5;230;23.04;230;27.96;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-03;39.0;60.1;0.0;0.0;0.0;4.25;40;12.97;340;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-10;60.1;84.9;0.0;0.0;0.0;11.41;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-16;57.9;75.9;0.0;0.0;0.0;3.13;200;8.95;160;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-24;48.9;77.0;0.0;0.0;0.0;9.84;230;23.04;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-16;62.1;84.0;0.0;0.0;0.0;6.49;240;14.99;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-19;64.0;78.1;0.54;0.0;0.0;6.49;200;17.0;190;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-16;62.1;87.1;0.0;0.0;0.0;10.29;230;19.91;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-18;69.1;84.9;0.14;0.0;0.0;8.5;230;21.92;220;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-23;66.9;86.0;0.04;0.0;0.0;3.58;190;12.08;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-27;66.9;89.1;0.0;0.0;0.0;9.62;240;19.91;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-29;68.0;86.0;0.1;0.0;0.0;5.82;220;12.97;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-03;73.0;84.9;0.0;0.0;0.0;6.93;250;14.99;180;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-07-07;70.0;89.1;0.0;0.0;0.0;7.38;220;16.11;250;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-08;72.0;90.0;0.0;0.0;0.0;5.14;170;14.09;200;18.12;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-07-11;72.0;84.0;0.2;0.0;0.0;6.71;240;14.99;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-17;73.9;93.0;0.0;0.0;0.0;2.68;80;12.97;360;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-18;73.0;93.0;0.0;0.0;0.0;2.46;220;12.08;210;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-19;75.0;91.9;0.0;0.0;0.0;9.84;230;18.12;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-22;72.0;91.0;0.0;0.0;0.0;6.71;230;18.12;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-30;62.1;87.1;0.0;0.0;0.0;2.24;90;10.07;130;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-31;70.0;82.9;0.51;0.0;0.0;4.92;220;25.05;220;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-09;73.9;91.9;0.0;0.0;0.0;9.62;230;19.91;250;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-19;66.9;75.0;0.6;0.0;0.0;1.57;140;16.11;150;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-26;55.0;82.9;0.0;0.0;0.0;1.34;60;8.05;120;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-31;68.0;90.0;0.0;0.0;0.0;5.82;230;14.99;210;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-07;59.0;82.0;0.0;0.0;0.0;1.12;210;8.95;200;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-09;64.0;87.1;0.0;0.0;0.0;3.36;90;14.99;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-11;68.0;91.0;0.0;0.0;0.0;5.14;160;14.09;180;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-12;70.0;90.0;0.0;0.0;0.0;6.04;230;12.97;230;21.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-09-17;57.9;75.9;0.0;0.0;0.0;8.5;50;18.12;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-20;62.1;72.0;0.19;0.0;0.0;3.8;170;10.07;150;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-23;54.0;73.0;0.0;0.0;0.0;3.8;80;14.09;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-01;51.1;82.0;0.0;0.0;0.0;1.12;270;8.95;250;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-06;63.0;84.9;0.0;0.0;0.0;6.71;170;14.09;130;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-10;53.1;61.0;0.14;0.0;0.0;5.82;360;12.97;360;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-12;61.0;69.1;0.01;0.0;0.0;3.58;10;8.95;10;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-15;54.0;71.1;0.0;0.0;0.0;5.14;40;12.97;40;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-21;39.0;68.0;0.0;0.0;0.0;0.45;180;8.05;170;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-27;39.9;69.1;0.0;0.0;0.0;2.46;230;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-04;35.1;55.0;0.0;0.0;0.0;6.49;50;16.11;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-20;37.0;52.0;0.0;0.0;0.0;8.5;60;19.91;60;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-21;41.0;62.1;0.0;0.0;0.0;3.8;40;12.08;50;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-23;43.0;61.0;0.01;0.0;0.0;3.8;330;10.07;320;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-03;33.1;57.9;0.0;0.0;0.0;2.91;180;10.07;200;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-04;53.1;64.0;0.0;0.0;0.0;3.36;210;10.07;210;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-07;42.1;69.1;0.11;0.0;0.0;10.74;230;18.12;30;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-09;34.0;46.0;0.17;0.0;0.0;2.68;180;10.07;180;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-16;28.2;54.0;0.0;0.0;0.0;4.47;220;12.08;220;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-23;46.9;68.0;1.95;0.0;0.0;8.05;240;21.92;230;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-25;23.2;39.9;0.0;0.0;0.0;2.68;40;12.08;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-31;32.0;51.1;0.0;0.0;0.0;3.8;270;12.97;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-01;29.1;51.1;0.0;0.0;0.0;2.46;200;8.95;210;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-07;9.1;25.2;0.0;0.0;0.0;7.61;300;16.11;320;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-08;15.3;43.0;0.0;0.0;0.0;2.91;220;10.07;210;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-09;25.2;54.0;0.0;0.0;0.0;2.46;110;8.95;120;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-14;37.9;54.0;0.3;0.0;0.0;2.91;190;12.08;320;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-16;32.0;44.1;0.07;0.0;0.0;3.8;270;12.08;280;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-24;11.1;27.1;0.0;0.0;0.0;6.26;10;14.09;20;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-25;18.1;39.9;0.0;0.0;0.0;15.21;230;25.05;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-03;39.9;64.0;0.18;0.0;0.0;9.62;230;21.03;220;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-09;29.1;55.0;0.0;0.0;0.0;3.13;230;14.99;220;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-13;30.2;36.0;0.39;0.39;1.18;6.71;30;16.11;30;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-15;32.0;45.0;0.27;0.0;0.0;6.49;290;21.92;290;36.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-18;35.1;64.9;0.0;0.0;0.0;4.03;280;14.09;270;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-02;34.0;71.1;0.0;0.0;0.0;8.28;230;21.92;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-06;30.2;42.1;0.55;0.0;0.0;13.42;40;21.03;30;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-08;27.1;68.0;0.0;0.0;0.0;4.25;230;17.0;240;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-13;29.1;45.0;0.0;0.0;0.0;7.61;300;21.03;300;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-14;24.3;60.1;0.0;0.0;0.0;9.17;220;23.04;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-18;30.2;37.0;0.09;0.0;0.0;8.05;40;14.99;10;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-19;35.1;46.9;0.04;0.0;0.0;5.37;230;14.09;230;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-20;39.0;66.0;0.0;0.0;0.0;5.37;240;17.0;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-23;36.0;57.0;0.14;0.0;0.0;4.92;70;19.91;80;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-14;63.0;75.9;0.03;0.0;0.0;10.74;200;21.92;200;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-20;48.9;68.0;0.0;0.0;0.0;12.3;50;23.94;30;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-21;42.1;73.9;0.0;0.0;0.0;3.58;40;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-24;39.9;71.1;0.0;0.0;0.0;3.8;120;12.97;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-05;55.0;73.0;0.0;0.0;0.0;5.82;50;17.0;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-06;55.9;84.0;0.0;0.0;0.0;3.8;90;10.07;80;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-08;55.0;89.1;0.0;0.0;0.0;6.26;230;21.03;230;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-10;64.0;86.0;0.0;0.0;0.0;8.95;230;23.04;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-12;57.9;90.0;0.0;0.0;0.0;2.68;250;14.09;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-13;66.9;91.9;0.0;0.0;0.0;5.82;190;12.08;210;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-22;64.0;88.0;0.0;0.0;0.0;4.7;260;14.09;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-24;53.1;79.0;0.0;0.0;0.0;3.36;30;10.07;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-28;64.0;90.0;0.0;0.0;0.0;3.8;70;14.99;70;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-29;64.9;75.9;0.08;0.0;0.0;5.82;80;12.97;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-03;57.0;89.1;0.05;0.0;0.0;4.03;230;14.09;330;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-06;68.0;82.9;0.0;0.0;0.0;5.82;80;12.08;130;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-08;64.9;87.1;0.0;0.0;0.0;8.5;230;16.11;190;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-10;68.0;93.9;0.0;0.0;0.0;3.36;230;12.97;240;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-13;66.9;88.0;0.42;0.0;0.0;4.25;360;18.12;350;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-14;60.1;86.0;0.0;0.0;0.0;2.91;30;12.97;40;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-21;68.0;91.0;0.0;0.0;0.0;3.58;110;14.99;140;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-22;68.0;84.0;0.0;0.0;0.0;5.82;90;14.09;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-25;73.0;93.0;0.0;0.0;0.0;6.71;230;14.99;260;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-27;70.0;84.9;0.88;0.0;0.0;4.92;90;21.03;90;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-01;73.9;93.0;0.0;0.0;0.0;7.83;170;16.11;190;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-03;73.9;90.0;0.0;0.0;0.0;6.93;180;10.96;200;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-05;61.0;82.9;0.0;0.0;0.0;4.92;50;14.99;80;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-16;64.0;80.1;0.0;0.0;0.0;3.13;30;14.09;30;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-19;66.0;82.0;0.0;0.0;0.0;4.25;50;14.09;120;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-22;72.0;84.9;0.0;0.0;0.0;3.8;80;8.95;120;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-30;63.0;81.0;0.0;0.0;0.0;4.25;80;12.97;130;18.12;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-08-02;64.0;70.0;0.08;0.0;0.0;3.36;50;12.08;80;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-04;68.0;84.9;0.0;0.0;0.0;2.24;40;12.08;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-06;70.0;90.0;0.0;0.0;0.0;3.36;260;14.99;260;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-11;70.0;84.0;0.31;0.0;0.0;6.71;170;14.99;170;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-15;61.0;86.0;0.0;0.0;0.0;2.68;220;12.08;270;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-18;70.0;88.0;0.61;0.0;0.0;3.36;280;19.91;290;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-21;71.1;91.0;0.0;0.0;0.0;2.24;270;8.95;260;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-30;72.0;89.1;0.0;0.0;0.0;4.92;190;12.08;190;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-07;70.0;78.1;0.0;0.0;0.0;7.16;60;16.11;80;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-08;68.0;73.0;1.04;0.0;0.0;8.28;40;16.11;40;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-11;66.9;88.0;0.09;0.0;0.0;5.59;230;19.91;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-09-13;69.1;80.1;0.02;0.0;0.0;5.37;30;14.09;50;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-20;57.9;81.0;0.0;0.0;0.0;5.82;40;14.09;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-21;63.0;87.1;0.12;0.0;0.0;6.26;230;14.99;220;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-24;55.0;64.0;3.18;0.0;0.0;9.62;30;17.0;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-25;63.0;68.0;0.03;0.0;0.0;7.38;30;12.97;30;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-28;54.0;79.0;0.0;0.0;0.0;1.34;80;8.05;50;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-09;51.1;79.0;0.0;0.0;0.0;2.68;170;10.07;170;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-14;70.0;79.0;0.42;0.0;0.0;10.29;140;23.94;150;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-16;53.1;72.0;0.0;0.0;0.0;4.47;240;12.97;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-17;48.9;73.9;0.0;0.0;0.0;4.25;230;14.99;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-18;53.1;75.0;0.0;0.0;0.0;4.25;320;14.09;320;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-20;41.0;71.1;0.0;0.0;0.0;4.25;230;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-22;48.0;66.9;0.0;0.0;0.0;6.04;290;14.99;10;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-25;39.0;71.1;0.0;0.0;0.0;2.68;220;8.95;90;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-09;39.9;60.1;0.0;0.0;0.0;0.67;30;6.93;140;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-11;45.0;72.0;0.0;0.0;0.0;3.8;40;12.97;40;16.11;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-11-15;25.2;46.0;0.0;0.0;0.0;1.79;40;8.05;70;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-22;22.1;54.0;0.0;0.0;0.0;1.79;220;8.95;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-26;35.1;50.0;1.69;0.0;0.0;6.71;30;23.04;40;36.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-29;27.1;54.0;0.0;0.0;0.0;5.82;220;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-07;35.1;53.1;0.0;0.0;0.0;12.97;40;23.94;40;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-09;35.1;45.0;0.5;0.0;0.0;3.58;340;8.95;320;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-19;36.0;52.0;0.0;0.0;0.0;2.01;280;8.95;30;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-25;35.1;64.0;0.03;0.0;0.0;5.82;240;17.0;270;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-03;46.0;51.1;0.16;0.0;0.0;3.8;80;8.95;330;23.94;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-07;16.2;39.0;0.0;0.0;0.0;6.26;330;17.0;340;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-09;22.1;45.0;0.0;0.0;0.0;8.28;240;21.03;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-16;30.2;53.1;0.0;0.0;0.0;3.58;330;14.09;330;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-19;31.1;63.0;0.0;0.0;0.0;5.14;280;14.99;270;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-27;30.2;44.1;0.01;0.0;0.0;5.14;280;12.08;330;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-28;25.2;46.0;0.0;0.0;0.0;2.91;40;12.08;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-04;25.2;54.0;0.0;0.0;0.0;6.04;220;16.11;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-16;19.2;27.1;0.22;0.31;0.0;6.26;100;12.97;50;16.11;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2015-02-17;19.2;35.1;0.39;0.71;1.18;4.7;40;12.97;20;18.12;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2015-02-18;19.2;39.9;0.06;0.39;0.0;6.04;230;23.94;230;27.96;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-02-20;7.2;26.2;0.0;0.0;0.0;5.59;300;12.97;330;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-08;35.1;71.1;0.0;0.0;0.0;4.92;250;16.11;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-10;50.0;75.0;0.0;0.0;0.0;6.93;220;21.03;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-13;42.1;53.1;0.02;0.0;0.0;4.92;50;12.08;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-14;45.0;62.1;0.3;0.0;0.0;4.7;250;21.03;250;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-18;39.0;60.1;0.0;0.0;0.0;4.7;30;14.09;20;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-02;32.0;55.9;0.0;0.0;0.0;3.13;320;12.97;330;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-03;28.9;62.1;0.0;0.0;0.0;2.24;220;14.09;220;14.99;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-04;46.0;69.1;0.0;0.0;0.0;4.47;220;14.09;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-10;27.0;44.1;0.0;0.0;0.0;4.7;280;14.99;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-15;57.0;73.9;0.0;0.0;0.0;13.2;230;23.94;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-17;28.9;39.9;0.0;0.0;0.0;8.72;40;17.9;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-18;27.0;35.1;0.29;0.98;0.0;4.7;80;10.07;350;12.08;Yes;No;No;Yes;No;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No
2007-01-30;24.1;48.9;0.0;0.0;0.0;5.82;220;17.9;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-10;26.1;46.0;0.0;0.0;0.0;2.91;300;12.08;300;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-18;26.1;45.0;0.0;0.0;0.0;8.72;290;23.94;300;40.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-20;41.0;66.0;0.0;0.0;0.0;16.11;230;25.95;230;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-21;50.0;73.0;0.01;0.0;0.0;7.16;230;21.92;220;25.05;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-01;41.0;66.9;0.2;0.0;0.0;10.29;170;27.96;150;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-11;39.9;70.0;0.0;0.0;0.0;5.14;30;16.11;30;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-15;57.0;81.0;0.0;0.0;0.0;9.4;220;21.92;210;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-19;26.1;63.0;0.0;0.0;0.0;9.4;230;23.04;240;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-21;50.0;63.0;0.0;0.0;0.0;9.17;90;21.92;90;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-22;43.0;77.0;0.0;0.0;0.0;5.14;220;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-03-25;51.1;79.0;0.0;0.0;0.0;6.71;90;21.92;110;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-29;41.0;61.0;0.18;0.0;0.0;6.26;50;21.92;50;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-30;34.0;70.0;0.0;0.0;0.0;0.22;80;8.05;90;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-31;46.9;79.0;0.0;0.0;0.0;7.16;240;17.0;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-12;55.9;75.0;0.93;0.0;0.0;7.38;230;25.05;240;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-04-13;46.0;66.9;0.0;0.0;0.0;6.49;270;14.99;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-16;43.0;60.1;0.0;0.0;0.0;14.09;300;29.97;290;48.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-18;42.1;66.9;0.0;0.0;0.0;6.04;90;14.99;100;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-20;44.1;71.1;0.0;0.0;0.0;4.03;360;14.09;50;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-21;39.9;77.0;0.0;0.0;0.0;2.24;50;8.95;140;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-24;57.9;82.9;0.0;0.0;0.0;9.84;230;16.11;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-09;63.0;81.0;0.31;0.0;0.0;8.28;110;21.03;100;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-05-22;63.0;81.0;0.0;0.0;0.0;8.05;90;14.09;100;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-23;55.0;82.0;0.0;0.0;0.0;6.93;80;14.99;130;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-26;61.0;91.0;0.0;0.0;0.0;7.61;200;12.97;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-27;61.0;91.0;0.0;0.0;0.0;7.83;210;14.09;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-30;63.0;90.0;0.0;0.0;0.0;6.26;90;14.09;90;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-01;64.0;89.1;0.0;0.0;0.0;6.71;200;12.97;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-03;64.9;77.0;1.53;0.0;0.0;9.62;60;17.9;50;25.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-06-04;60.1;90.0;0.0;0.0;0.0;10.07;220;23.94;220;29.08;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-06-05;64.0;90.0;0.03;0.0;0.0;7.16;230;21.03;220;25.05;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-06-07;66.0;93.9;0.0;0.0;0.0;8.72;200;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-21;62.1;87.1;0.0;0.0;0.0;2.91;50;12.97;40;17.0;Yes;No;Yes;No;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-26;69.1;95.0;0.53;0.0;0.0;4.92;240;29.08;250;33.11;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-06-30;71.1;89.1;0.0;0.0;0.0;4.25;20;16.11;30;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-02;63.0;84.0;0.0;0.0;0.0;3.36;20;12.08;80;14.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-12;70.0;89.1;0.0;0.0;0.0;3.36;350;12.08;360;17.0;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-14;61.0;87.1;0.0;0.0;0.0;3.36;230;10.07;230;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-23;62.1;84.9;0.0;0.0;0.0;3.8;40;14.99;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-25;64.9;88.0;0.0;0.0;0.0;5.59;110;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-26;66.0;91.9;0.0;0.0;0.0;1.79;160;10.07;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-30;72.0;88.0;0.13;0.0;0.0;5.59;100;23.94;100;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-07;75.0;99.0;0.0;0.0;0.0;2.24;230;12.97;250;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-14;71.1;93.9;0.0;0.0;0.0;6.49;40;14.99;30;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-15;70.0;99.0;0.0;0.0;0.0;6.04;220;14.99;200;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-25;75.0;99.0;0.0;0.0;0.0;8.95;220;17.0;210;21.03;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-11;73.9;99.0;0.0;0.0;0.0;12.08;230;29.08;220;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-12;66.0;91.0;0.0;0.0;0.0;5.37;30;14.99;10;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-18;53.1;78.1;0.0;0.0;0.0;8.5;80;17.9;90;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-20;64.9;73.9;0.31;0.0;0.0;8.28;40;14.99;40;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-28;64.0;84.9;0.0;0.0;0.0;6.49;320;16.11;340;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-29;50.0;79.0;0.0;0.0;0.0;6.71;40;19.91;20;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-06;68.0;82.9;0.0;0.0;0.0;4.25;50;10.07;40;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-10-14;46.0;78.1;0.0;0.0;0.0;2.68;30;12.08;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-22;55.9;82.9;0.0;0.0;0.0;5.82;140;14.99;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-29;37.0;61.0;0.0;0.0;0.0;4.47;50;16.11;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-30;33.1;66.9;0.0;0.0;0.0;1.12;50;8.05;140;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-13;46.9;73.9;0.0;0.0;0.0;4.03;230;12.97;230;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-23;35.1;51.1;0.0;0.0;0.0;6.49;20;14.99;350;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-24;25.0;50.0;0.0;0.0;0.0;3.36;80;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-01;27.0;57.9;0.0;0.0;0.0;4.7;90;14.09;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-10;55.9;81.0;0.0;0.0;0.0;7.61;230;16.11;240;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-11;51.1;73.9;0.0;0.0;0.0;3.58;80;10.07;140;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-15;37.9;46.9;0.97;0.0;0.0;10.29;50;16.11;90;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-21;39.9;48.0;0.01;0.0;0.0;10.07;50;17.0;50;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-24;32.0;57.9;0.0;0.0;0.0;2.91;260;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-01;35.1;55.0;0.0;0.0;0.0;8.95;300;19.91;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-09;55.9;73.0;0.0;0.0;0.0;9.84;230;19.91;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-14;30.9;52.0;0.0;0.0;0.0;4.25;270;16.11;290;21.92;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-01-18;33.1;51.1;0.0;0.0;0.0;6.71;220;12.08;280;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-01-19;33.1;42.1;0.28;0.51;0.0;3.58;320;8.95;330;14.09;Yes;No;Yes;Yes;No;No;No;Yes;Yes;No;Yes;No;No;No;No;No;No
2008-01-31;27.0;51.1;0.0;0.0;0.0;9.62;40;17.9;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-03;37.9;66.0;0.0;0.0;0.0;3.8;30;12.08;10;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-20;30.9;64.9;0.0;0.0;0.0;11.18;220;29.97;220;38.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-22;32.0;42.1;0.29;0.0;0.0;6.93;220;12.08;100;14.09;Yes;No;Yes;Yes;No;No;Yes;No;No;Yes;No;No;No;No;No;No;No
2008-02-24;37.0;46.0;0.03;0.0;0.0;6.26;90;14.99;120;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2008-03-02;32.0;63.0;0.0;0.0;0.0;4.7;110;12.97;100;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-04;57.9;73.9;2.0;0.0;0.0;15.88;240;36.91;260;46.98;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-03-17;33.1;57.9;0.0;0.0;0.0;7.16;30;17.0;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-18;39.0;59.0;0.0;0.0;0.0;6.71;190;17.0;190;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-22;48.0;75.0;0.0;0.0;0.0;12.75;230;25.05;220;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-23;37.0;57.9;0.0;0.0;0.0;6.04;50;16.11;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-03;46.0;52.0;0.49;0.0;0.0;7.83;100;16.11;100;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-04-06;48.9;61.0;0.16;0.0;0.0;9.17;60;14.09;30;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-04-07;46.0;55.9;0.0;0.0;0.0;8.72;40;14.09;50;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2008-04-17;37.9;80.1;0.0;0.0;0.0;2.01;270;14.09;270;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-25;55.0;82.0;0.0;0.0;0.0;7.38;210;14.99;220;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-29;45.0;61.0;0.0;0.0;0.0;8.05;300;17.0;270;23.04;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-07;51.1;82.9;0.0;0.0;0.0;9.62;210;21.03;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-08;64.9;77.0;0.07;0.0;0.0;12.53;170;21.03;180;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-12;51.1;64.0;0.01;0.0;0.0;8.05;300;19.91;310;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-15;60.1;78.1;0.11;0.0;0.0;7.61;220;16.11;240;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-16;57.9;82.0;0.39;0.0;0.0;10.29;230;21.92;240;25.05;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-05-28;55.9;73.0;0.17;0.0;0.0;7.61;80;23.94;80;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2008-05-30;54.0;86.0;0.0;0.0;0.0;7.16;210;14.99;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-10;73.9;100.9;0.0;0.0;0.0;8.05;220;17.0;200;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-16;66.9;95.0;0.1;0.0;0.0;5.37;230;17.0;220;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2008-06-18;55.9;84.9;0.0;0.0;0.0;3.13;290;14.09;280;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-08;70.0;88.0;0.0;0.0;0.0;10.74;230;19.91;220;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-07-12;68.0;89.1;0.0;0.0;0.0;2.91;110;12.08;110;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-08-07;73.0;93.0;0.0;0.0;0.0;4.92;220;17.9;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-12;55.9;89.1;0.0;0.0;0.0;3.58;170;10.07;140;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-14;60.1;84.9;0.0;0.0;0.0;5.59;220;14.99;230;17.9;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2008-08-20;68.0;91.9;0.56;0.0;0.0;6.71;140;17.0;160;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-08-23;66.0;88.0;0.0;0.0;0.0;6.93;120;12.97;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-02;61.0;87.1;0.0;0.0;0.0;2.24;40;12.08;20;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-10;66.9;75.0;1.19;0.0;0.0;5.14;30;12.97;30;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-09-11;66.9;78.1;0.0;0.0;0.0;4.47;50;10.07;80;12.97;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-20;53.1;73.0;0.0;0.0;0.0;5.59;30;12.97;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-28;66.9;82.9;0.0;0.0;0.0;2.91;270;12.08;240;17.0;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2008-10-01;51.1;73.0;0.25;0.0;0.0;3.36;310;12.97;320;17.9;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;Yes;Yes;No;No
2008-10-05;54.0;82.0;0.0;0.0;0.0;1.57;230;8.05;250;10.07;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-12;55.9;78.1;0.0;0.0;0.0;8.72;50;16.11;90;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-15;54.0;87.1;0.0;0.0;0.0;1.12;50;8.95;60;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-29;34.0;59.0;0.0;0.0;0.0;6.93;250;17.9;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-08;44.1;73.0;0.06;0.0;0.0;8.72;220;19.91;240;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-11-18;32.0;45.0;0.0;0.0;0.0;8.28;310;17.0;290;25.05;No;No;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2008-11-19;27.0;45.0;0.0;0.0;0.0;6.04;240;14.09;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-30;39.0;59.0;0.96;0.0;0.0;6.93;280;21.03;280;25.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-12-04;33.1;57.9;0.0;0.0;0.0;8.72;220;17.9;230;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-09;36.0;66.0;0.0;0.0;0.0;8.72;170;21.92;160;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-13;25.0;46.9;0.0;0.0;0.0;1.79;330;10.07;40;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-18;48.9;57.9;0.02;0.0;0.0;2.46;90;10.07;130;12.08;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No
2008-12-20;48.9;61.0;0.19;0.0;0.0;5.59;90;17.9;90;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-22;21.0;36.0;0.0;0.0;0.0;7.16;310;17.0;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-26;37.0;48.0;0.04;0.0;0.0;4.92;100;14.99;90;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-12-30;37.0;64.0;0.0;0.0;0.0;5.82;210;14.09;200;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-14;28.0;46.0;0.0;0.0;0.0;5.82;210;12.08;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-19;35.1;50.0;0.02;0.0;0.0;5.82;20;12.97;30;16.11;Yes;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;Yes;Yes;No;No
2009-01-25;30.0;36.0;0.0;0.0;0.0;6.26;70;14.09;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-27;39.9;43.0;0.11;0.0;0.0;3.8;90;8.05;90;10.07;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-01-29;30.0;54.0;0.0;0.0;0.0;2.91;20;12.08;20;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-31;26.1;46.9;0.0;0.0;0.0;5.59;270;17.9;260;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-10;48.0;73.0;0.0;0.0;0.0;10.51;230;25.05;220;31.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2009-02-11;54.0;75.0;0.04;0.0;0.0;17.45;230;34.9;220;44.96;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-02-17;23.0;50.0;0.0;0.0;0.0;3.8;220;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-19;34.0;57.9;0.0;0.0;0.0;10.29;300;21.03;300;29.08;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-02-24;23.0;46.0;0.0;0.0;0.0;2.68;50;12.08;10;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-27;53.1;72.0;0.03;0.0;0.0;9.62;220;25.95;220;31.09;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-03-02;23.0;35.1;0.3;3.19;2.99;6.93;350;14.99;360;21.92;Yes;No;Yes;Yes;No;No;No;No;Yes;No;Yes;No;No;No;No;No;No
2009-03-06;39.9;73.9;0.0;0.0;0.0;14.32;220;25.95;220;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-07;48.9;82.0;0.0;0.0;0.0;7.38;220;16.11;220;17.9;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-03-08;53.1;84.0;0.0;0.0;0.0;14.54;220;25.05;240;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-23;42.1;66.0;0.0;0.0;0.0;5.82;50;19.91;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-26;46.0;69.1;0.43;0.0;0.0;5.37;220;25.05;210;29.08;Yes;Yes;No;No;No;No;No;Yes;No;No;Yes;No;No;Yes;Yes;No;No
2009-03-29;50.0;77.0;0.0;0.0;0.0;17.45;230;31.09;240;40.04;Yes;No;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-04-09;43.0;70.0;0.0;0.0;0.0;4.7;240;14.99;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-10;54.0;78.1;0.35;0.0;0.0;10.74;230;29.97;230;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-04-12;44.1;66.0;0.0;0.0;0.0;4.47;30;14.09;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-15;48.9;64.0;0.0;0.0;0.0;8.72;40;19.91;10;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-04-25;66.0;91.9;0.0;0.0;0.0;10.51;230;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-05;60.1;73.0;0.98;0.0;0.0;5.14;210;12.97;210;14.99;Yes;No;No;No;No;No;No;Yes;No;No;Yes;Yes;No;Yes;No;No;No
2009-05-08;62.1;82.0;0.0;0.0;0.0;7.38;230;19.91;220;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-09;66.9;90.0;0.08;0.0;0.0;12.08;270;31.09;270;44.07;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-05-15;69.1;84.9;0.0;0.0;0.0;6.04;150;12.97;210;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-18;48.9;66.9;0.06;0.0;0.0;9.62;40;21.92;40;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-19;45.0;71.1;0.0;0.0;0.0;9.62;50;23.04;50;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-25;66.9;82.9;0.13;0.0;0.0;5.37;160;23.04;170;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-05-27;64.0;86.0;0.0;0.0;0.0;2.68;80;8.95;100;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-05-29;68.0;88.0;0.0;0.0;0.0;7.16;240;19.91;230;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2009-05-30;63.0;84.9;0.0;0.0;0.0;4.03;40;12.08;30;14.99;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-06-01;64.9;87.1;0.0;0.0;0.0;6.04;60;14.99;60;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-02;66.0;93.9;0.0;0.0;0.0;6.71;200;14.99;200;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-06-11;69.1;89.1;0.0;0.0;0.0;4.92;230;14.09;230;16.11;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-06-17;68.0;80.1;0.05;0.0;0.0;7.38;100;14.99;90;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-19;70.0;91.0;0.0;0.0;0.0;4.7;330;14.09;330;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-06-29;72.0;91.9;0.0;0.0;0.0;5.82;240;17.9;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-01;64.9;97.0;0.04;0.0;0.0;5.14;230;21.03;230;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-07-12;72.0;97.0;0.0;0.0;0.0;7.61;230;17.9;230;25.05;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2009-07-19;66.0;88.0;0.0;0.0;0.0;5.59;70;12.97;80;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-22;68.0;91.9;0.0;0.0;0.0;5.14;120;12.97;120;17.0;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2009-07-26;73.0;99.0;0.06;0.0;0.0;9.17;220;21.92;230;29.08;No;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2009-08-03;70.0;95.0;0.03;0.0;0.0;2.68;150;14.99;120;21.92;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;Yes;No;No
2009-08-15;71.1;88.0;0.0;0.0;0.0;4.03;40;14.09;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-17;68.0;93.0;0.06;0.0;0.0;3.13;200;12.97;200;17.0;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-22;70.0;86.0;0.25;0.0;0.0;3.8;280;21.92;260;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-08-23;69.1;84.9;0.0;0.0;0.0;3.36;90;8.95;160;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-09-03;59.0;81.0;0.0;0.0;0.0;5.82;50;17.9;60;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-09;62.1;82.0;0.0;0.0;0.0;4.47;90;14.99;100;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-10;59.0;72.0;0.0;0.0;0.0;5.82;50;16.11;40;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-21;57.0;82.0;0.0;0.0;0.0;5.59;90;14.99;90;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-24;71.1;90.0;0.0;0.0;0.0;3.36;220;10.07;220;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2015-03-20;39.9;51.1;0.31;0.0;0.0;3.36;80;12.08;90;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-21;39.9;64.9;0.0;0.0;0.0;3.36;230;12.97;230;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-28;32.0;46.0;0.0;0.0;0.0;6.26;290;17.0;310;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-30;41.0;66.0;0.16;0.0;0.0;9.84;230;21.03;240;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-04;43.0;73.0;0.0;0.0;0.0;8.5;220;23.94;320;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-09;57.0;78.1;0.53;0.0;0.0;5.82;90;23.94;90;27.96;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2015-04-12;46.9;73.0;0.0;0.0;0.0;7.61;90;19.91;90;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-16;48.0;66.0;0.05;0.0;0.0;4.47;50;10.07;110;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-24;37.9;66.9;0.0;0.0;0.0;3.58;260;14.99;330;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-25;45.0;57.0;0.34;0.0;0.0;3.58;210;12.08;20;14.99;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-30;51.1;73.0;0.99;0.0;0.0;4.47;50;18.12;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-05-01;51.1;61.0;0.58;0.0;0.0;4.47;50;16.11;10;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-05;55.9;82.0;0.0;0.0;0.0;7.38;240;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-13;57.9;80.1;0.0;0.0;0.0;3.58;330;12.08;10;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-14;55.9;72.0;0.0;0.0;0.0;7.16;50;16.11;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-18;69.1;91.0;0.0;0.0;0.0;6.49;220;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-19;69.1;90.0;1.38;0.0;0.0;4.25;350;25.05;330;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-05-25;57.0;84.0;0.0;0.0;0.0;6.49;190;14.99;200;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-04;61.0;68.0;0.02;0.0;0.0;5.37;30;12.08;20;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-06-06;59.0;88.0;0.0;0.0;0.0;5.59;40;14.09;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-07;62.1;86.0;0.0;0.0;0.0;6.71;130;12.97;130;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-14;71.1;96.1;0.0;0.0;0.0;3.36;50;14.99;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-17;73.9;96.1;0.51;0.0;0.0;3.8;80;16.11;160;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-23;75.9;98.1;0.0;0.0;0.0;8.28;220;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-02;72.0;87.1;0.24;0.0;0.0;6.71;240;18.12;250;21.92;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-07-04;69.1;87.1;0.06;0.0;0.0;8.5;220;21.03;230;29.08;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-11;72.0;91.0;0.0;0.0;0.0;5.37;40;17.0;50;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-12;66.0;86.0;0.0;0.0;0.0;3.58;40;12.08;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-15;73.9;88.0;0.0;0.0;0.0;4.92;280;12.97;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-17;68.0;90.0;0.0;0.0;0.0;3.36;170;6.93;170;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-30;73.0;93.9;0.0;0.0;0.0;2.91;270;8.95;260;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-05;73.0;97.0;0.0;0.0;0.0;3.13;240;14.99;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-12;64.9;87.1;0.0;0.0;0.0;3.13;30;12.08;40;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-16;69.1;91.9;0.0;0.0;0.0;3.13;60;8.05;30;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-17;69.1;95.0;0.0;0.0;0.0;4.25;230;12.97;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-25;72.0;89.1;0.0;0.0;0.0;2.91;30;8.95;40;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-05;69.1;86.0;0.0;0.0;0.0;6.71;60;19.91;50;25.05;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-09-10;71.1;89.1;0.21;0.0;0.0;6.04;290;19.91;300;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-09-11;70.0;84.0;0.0;0.0;0.0;2.24;40;8.95;150;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-16;52.0;81.0;0.0;0.0;0.0;1.57;60;8.95;50;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-18;55.9;84.0;0.0;0.0;0.0;3.8;40;12.08;120;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-22;66.0;79.0;0.0;0.0;0.0;9.4;40;18.12;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-29;73.9;82.0;0.9;0.0;0.0;5.59;140;12.97;140;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-30;66.0;82.9;0.06;0.0;0.0;4.7;40;18.12;50;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-02;55.0;60.1;2.07;0.0;0.0;14.54;40;23.04;20;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-07;52.0;81.0;0.0;0.0;0.0;0.22;350;6.93;130;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-13;60.1;79.0;0.0;0.0;0.0;9.4;230;17.0;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-30;45.0;68.0;0.0;0.0;0.0;2.68;30;8.95;20;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-31;39.9;66.0;0.0;0.0;0.0;3.13;60;8.95;130;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-08;50.0;59.0;0.0;0.0;0.0;9.17;50;18.12;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-27;43.0;71.1;0.0;0.0;0.0;0.89;20;6.93;20;8.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-28;45.0;71.1;0.0;0.0;0.0;1.79;240;10.07;220;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-02;52.0;64.0;0.04;0.0;0.0;7.61;170;17.0;180;21.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-17;51.1;59.0;0.89;0.0;0.0;2.01;300;14.09;310;21.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-19;26.2;48.0;0.0;0.0;0.0;6.71;240;21.03;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-21;36.0;57.0;0.0;0.0;0.0;2.01;200;6.93;200;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-22;51.1;64.9;0.66;0.0;0.0;4.92;160;16.11;180;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-28;51.1;68.0;0.15;0.0;0.0;8.95;80;21.92;80;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-05;23.2;34.0;0.0;0.0;0.0;6.26;50;14.99;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-06;21.2;45.0;0.0;0.0;0.0;3.58;50;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-11;27.1;45.0;0.0;0.0;0.0;3.58;260;12.97;300;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-15;35.1;51.1;0.37;0.0;0.0;5.59;90;25.05;90;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-22;25.2;32.0;0.95;1.18;0.0;12.3;60;25.05;40;36.01;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2016-01-23;24.3;32.0;0.01;0.0;1.18;7.83;310;16.11;320;25.95;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2016-01-29;31.1;54.0;0.0;0.0;0.0;5.82;270;18.12;290;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-31;37.9;70.0;0.0;0.0;0.0;11.18;220;25.05;230;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-04;42.1;63.0;0.27;0.0;0.0;6.26;40;17.0;40;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-09;29.1;44.1;0.0;0.0;0.0;6.49;240;18.12;240;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-12;25.2;32.0;0.0;0.0;0.0;4.47;90;12.97;100;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-18;32.0;51.1;0.0;0.0;0.0;3.58;40;12.97;340;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-22;45.0;57.0;0.87;0.0;0.0;6.26;80;14.09;90;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-02-26;31.1;50.0;0.0;0.0;0.0;5.59;280;17.0;330;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-04;35.1;52.0;0.08;0.0;0.0;5.37;20;12.97;30;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-05;34.0;55.0;0.0;0.0;0.0;4.47;220;14.09;30;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-14;57.9;80.1;1.87;0.0;0.0;3.8;230;31.99;240;46.98;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2016-03-15;55.0;78.1;0.0;0.0;0.0;3.36;250;10.07;340;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-18;48.0;72.0;0.0;0.0;0.0;3.13;280;14.99;260;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-21;37.0;57.0;0.0;0.0;0.0;5.37;270;18.12;270;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-23;48.0;77.0;0.0;0.0;0.0;15.43;240;23.94;230;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-27;54.0;59.0;0.73;0.0;0.0;4.7;100;12.97;120;14.99;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-09;37.9;52.0;0.0;0.0;0.0;10.29;280;25.05;290;42.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-10;29.1;60.1;0.0;0.0;0.0;5.14;190;12.08;110;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-22;62.1;72.0;1.02;0.0;0.0;7.38;230;18.12;200;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-02;66.0;87.1;0.09;0.0;0.0;8.72;210;27.96;220;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-11;63.0;82.9;0.0;0.0;0.0;5.37;230;14.99;220;18.12;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-05-13;59.0;78.1;0.0;0.0;0.0;4.47;260;12.08;290;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-18;57.0;64.0;0.1;0.0;0.0;5.82;40;12.97;30;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-20;55.9;71.1;0.0;0.0;0.0;6.26;110;14.99;110;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-22;53.1;70.0;0.22;0.0;0.0;4.03;340;14.09;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-01;66.9;86.0;0.0;0.0;0.0;4.92;100;21.92;110;31.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-03;70.0;91.0;0.07;0.0;0.0;4.25;40;17.0;30;23.94;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-06-10;59.0;84.9;0.0;0.0;0.0;3.36;90;10.07;120;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-12;70.0;93.0;0.0;0.0;0.0;6.93;260;14.99;280;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-16;73.0;91.9;0.0;0.0;0.0;5.59;40;14.99;40;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-17;66.9;82.9;0.1;0.0;0.0;7.61;40;23.04;30;35.12;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-06-18;59.0;82.0;0.0;0.0;0.0;9.62;80;23.04;80;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-22;72.0;91.9;0.12;0.0;0.0;6.93;250;14.99;260;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-01;72.0;89.1;0.0;0.0;0.0;5.82;240;14.99;240;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-04;69.1;84.9;0.02;0.0;0.0;4.25;180;14.99;180;18.12;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-07-11;73.0;90.0;0.0;0.0;0.0;2.91;230;8.95;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-15;71.1;95.0;1.58;0.0;0.0;6.49;200;29.97;210;38.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-24;73.9;95.0;0.0;0.0;0.0;5.59;210;10.07;160;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-07;73.9;86.0;0.39;0.0;0.0;4.92;40;14.09;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-13;77.0;93.9;0.0;0.0;0.0;9.84;230;18.12;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-20;73.9;91.0;0.0;0.0;0.0;2.24;220;19.91;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-31;71.1;95.0;0.0;0.0;0.0;3.36;160;12.97;190;18.12;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-05;57.9;84.0;0.0;0.0;0.0;2.46;30;10.07;40;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-08;68.0;96.1;0.0;0.0;0.0;6.71;230;16.11;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-09;71.1;93.9;0.0;0.0;0.0;6.71;190;12.08;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-11;72.0;91.0;0.0;0.0;0.0;6.04;80;14.99;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-14;66.0;91.0;0.0;0.0;0.0;3.8;170;12.97;190;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-26;64.9;75.9;0.02;0.0;0.0;5.59;220;12.08;220;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-06;59.0;72.0;0.02;0.0;0.0;10.29;50;17.0;20;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-08;63.0;70.0;6.45;0.0;0.0;16.11;40;31.99;40;46.98;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-11;43.0;68.0;0.0;0.0;0.0;3.36;40;12.08;80;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-19;62.1;88.0;0.0;0.0;0.0;2.91;230;10.07;220;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-22;42.1;64.0;0.0;0.0;0.0;8.28;290;17.0;300;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-28;54.0;73.9;0.0;0.0;0.0;4.25;30;12.08;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-01;52.0;64.0;0.0;0.0;0.0;2.68;140;10.07;100;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-18;39.0;75.9;0.0;0.0;0.0;0.89;240;8.05;240;8.95;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-11-25;52.0;73.9;0.0;0.0;0.0;2.01;230;8.95;280;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-27;27.1;55.9;0.0;0.0;0.0;0.67;300;8.05;330;10.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-01;46.0;68.0;0.0;0.0;0.0;6.49;230;23.94;220;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-02;33.1;57.9;0.0;0.0;0.0;3.58;250;14.99;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-16;19.2;32.0;0.01;0.0;0.0;4.7;50;12.97;50;17.0;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2016-12-24;43.0;59.0;0.02;0.0;0.0;3.13;240;14.99;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-03;46.9;55.9;0.31;0.0;0.0;5.37;250;14.99;230;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-04;41.0;64.0;0.0;0.0;0.0;5.82;320;16.11;330;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-24;41.0;63.0;0.0;0.0;0.0;6.04;290;19.91;310;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-02;37.0;61.0;0.0;0.0;0.0;2.24;40;12.08;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-08;54.0;73.9;0.09;0.0;0.0;5.82;230;18.12;240;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-02-11;41.0;73.0;0.0;0.0;0.0;12.3;230;21.92;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-18;37.0;73.0;0.0;0.0;0.0;7.61;240;25.05;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-22;51.1;70.0;0.0;0.0;0.0;3.8;220;12.08;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-02;39.0;62.1;0.0;0.0;0.0;8.05;290;18.12;300;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-05;30.2;53.1;0.0;0.0;0.0;6.26;70;17.0;80;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-12;30.2;48.0;0.03;0.31;0.0;4.92;40;16.11;20;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-15;24.3;39.9;0.0;0.0;0.0;10.51;290;23.94;260;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-16;24.3;50.0;0.0;0.0;0.0;6.04;280;17.0;250;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-24;37.0;71.1;0.0;0.0;0.0;9.62;230;23.04;230;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-28;60.1;80.1;0.06;0.0;0.0;7.61;230;16.11;220;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-03-29;55.0;73.0;0.0;0.0;0.0;4.92;50;16.11;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-02;48.9;69.1;0.0;0.0;0.0;6.04;80;16.11;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-03;50.0;75.9;0.4;0.0;0.0;9.17;170;23.04;190;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-04-08;34.0;66.9;0.0;0.0;0.0;3.13;270;12.97;280;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-13;54.0;80.1;0.0;0.0;0.0;8.05;120;18.12;110;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-14;53.1;81.0;0.0;0.0;0.0;4.47;250;12.08;240;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-15;61.0;84.9;0.0;0.0;0.0;9.62;220;21.03;220;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-19;55.0;69.1;0.0;0.0;0.0;3.58;50;10.07;50;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-05;55.9;78.1;1.48;0.0;0.0;15.88;220;25.95;230;36.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-07;45.0;69.1;0.0;0.0;0.0;5.82;250;17.0;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-09;43.0;64.0;0.01;0.0;0.0;1.79;230;8.95;230;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-17;66.0;89.1;0.0;0.0;0.0;8.95;210;17.0;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-25;60.1;75.9;0.82;0.0;0.0;11.41;230;27.96;230;36.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-26;59.0;81.0;0.0;0.0;0.0;7.83;280;18.12;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-05;66.9;84.9;1.54;0.0;0.0;6.04;220;23.94;220;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-10;61.0;89.1;0.0;0.0;0.0;6.04;240;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-15;70.0;91.0;0.0;0.0;0.0;3.36;160;8.95;;;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-21;66.0;84.9;0.2;0.0;0.0;6.71;230;14.99;190;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-23;73.0;91.0;0.04;0.0;0.0;13.65;230;25.05;230;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-16;73.0;91.0;0.05;0.0;0.0;5.14;130;14.99;130;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-29;70.0;82.0;0.01;0.0;0.0;8.5;30;18.12;30;27.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-30;63.0;84.9;0.0;0.0;0.0;6.26;60;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-10;63.0;88.0;0.0;0.0;0.0;4.03;70;12.08;110;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-15;75.9;91.0;0.07;0.0;0.0;2.91;240;14.99;240;19.01;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-23;73.9;95.0;0.21;0.0;0.0;5.82;50;16.11;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-09-02;61.0;82.9;0.0;0.0;0.0;6.26;170;12.97;160;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-04;59.0;87.1;0.0;0.0;0.0;3.58;230;12.08;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-16;62.1;84.9;0.0;0.0;0.0;3.8;70;14.09;70;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-17;63.0;84.9;0.0;0.0;0.0;5.59;60;12.97;80;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-24;63.0;87.1;0.0;0.0;0.0;5.59;40;16.11;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-26;69.1;84.9;0.0;0.0;0.0;7.61;40;16.11;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-29;60.1;72.0;0.0;0.0;0.0;6.04;50;12.97;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-30;54.0;77.0;0.0;0.0;0.0;7.83;50;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-02;46.9;75.9;0.0;0.0;0.0;4.92;100;12.97;110;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-03;50.0;77.0;0.0;0.0;0.0;6.26;40;14.09;60;18.12;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-10-07;59.0;86.0;0.15;0.0;0.0;6.26;150;17.0;150;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-12;64.9;77.0;0.0;0.0;0.0;8.28;50;17.0;50;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-13;63.0;71.1;0.0;0.0;0.0;7.38;40;14.99;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-20;43.0;77.0;0.0;0.0;0.0;2.01;40;12.08;110;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-01;46.0;73.0;0.0;0.0;0.0;4.25;170;12.08;170;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-04;55.9;64.0;0.0;0.0;0.0;8.28;40;16.11;80;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-09;45.0;50.0;0.27;0.0;0.0;4.03;40;12.08;30;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-21;30.2;64.0;0.0;0.0;0.0;2.91;140;12.97;170;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-23;29.1;50.0;0.0;0.0;0.0;2.68;70;8.95;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-24;26.2;57.0;0.0;0.0;0.0;1.57;50;8.95;50;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-26;33.1;62.1;0.0;0.0;0.0;2.91;280;12.08;330;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-28;29.1;64.9;0.0;0.0;0.0;2.24;150;12.08;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-30;35.1;69.1;0.0;0.0;0.0;1.12;240;8.05;160;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-04;33.1;61.0;0.0;0.0;0.0;2.46;130;10.07;150;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-06;41.0;57.0;0.24;0.0;0.0;4.7;10;12.08;10;21.03;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2017-12-14;30.2;57.0;0.0;0.0;0.0;7.38;230;16.11;220;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-20;48.0;55.9;0.42;0.0;0.0;2.46;190;6.93;40;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-21;36.0;53.1;0.0;0.0;0.0;4.47;80;12.97;80;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-23;48.0;71.1;0.0;0.0;0.0;12.08;220;25.95;230;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-29;15.3;42.1;0.0;0.0;0.0;2.01;160;8.95;190;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-01;13.1;28.2;0.0;0.0;0.0;6.49;40;14.99;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-13;29.1;55.9;0.0;0.0;0.0;9.62;230;23.04;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-15;17.2;39.0;0.0;0.0;0.0;3.8;40;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-17;23.2;37.9;0.49;5.91;0.0;5.82;30;18.12;20;25.05;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-19;19.2;48.9;0.0;0.0;3.94;3.58;230;12.08;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-26;25.2;57.0;0.0;0.0;0.0;4.25;200;12.97;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-30;25.2;39.9;0.04;0.0;0.0;6.93;300;19.91;310;31.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-02;24.3;57.0;0.16;0.0;0.0;7.83;220;23.04;230;29.97;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-02-03;18.1;42.1;0.0;0.0;0.0;5.14;160;10.07;20;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-04;33.1;55.9;0.61;0.0;0.0;6.49;170;27.96;170;36.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-12;42.1;64.9;0.08;0.0;0.0;9.84;50;21.92;50;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-18;39.0;61.0;0.02;0.0;0.0;5.14;130;14.09;110;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-24;57.0;78.1;0.0;0.0;0.0;11.18;220;23.04;220;27.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-26;39.9;63.0;0.09;0.0;0.0;4.25;20;16.11;20;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-03;35.1;57.0;0.0;0.0;0.0;8.72;340;17.0;350;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-04;35.1;55.9;0.0;0.0;0.0;6.93;40;21.03;20;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-07;35.1;54.0;0.0;0.0;0.0;6.71;290;18.12;300;27.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-10;37.9;55.9;0.0;0.0;0.0;3.13;140;12.08;140;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-16;39.0;68.0;0.0;0.0;0.0;5.82;290;17.0;260;31.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-03-20;36.0;57.0;1.05;0.0;0.0;8.72;50;21.03;40;27.07;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;Yes;No;No;No
2018-03-25;33.1;54.0;0.3;0.0;0.0;9.84;50;21.03;90;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-29;55.9;80.1;0.0;0.0;0.0;13.87;230;25.05;230;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-30;51.1;71.1;0.03;0.0;0.0;13.2;230;23.04;200;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-31;39.9;64.0;0.0;0.0;0.0;5.82;200;14.09;210;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-04;48.0;77.0;0.0;0.0;0.0;13.87;230;23.94;340;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-14;59.0;81.0;0.0;0.0;0.0;13.87;230;23.94;210;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-17;33.1;62.1;0.0;0.0;0.0;9.4;230;25.95;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-18;42.1;82.0;0.0;0.0;0.0;9.62;230;23.94;220;29.08;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-04-23;52.0;66.0;0.01;0.0;0.0;11.18;120;25.95;100;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-03;57.0;84.9;0.0;0.0;0.0;11.86;230;21.03;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-09;50.0;79.0;0.0;0.0;0.0;4.7;60;10.96;40;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-18;71.1;82.0;0.23;0.0;0.0;8.28;160;14.99;160;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-20;69.1;86.0;0.0;0.0;0.0;8.05;230;14.99;210;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-27;69.1;87.1;0.0;0.0;0.0;9.4;230;16.11;220;19.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-05-28;69.1;75.9;0.28;0.0;0.0;6.26;90;14.09;90;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-01;69.1;91.9;0.0;0.0;0.0;5.59;260;16.11;250;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-04;64.0;84.9;0.0;0.0;0.0;5.59;240;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-08;64.9;89.1;0.0;0.0;0.0;4.47;140;10.07;150;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-10;66.9;91.0;0.2;0.0;0.0;4.47;300;14.99;280;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-13;66.9;84.9;0.0;0.0;0.0;6.04;230;14.99;230;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-15;69.1;86.0;0.0;0.0;0.0;5.82;80;16.11;80;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-16;64.9;90.0;0.0;0.0;0.0;4.47;210;12.08;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-19;73.0;96.1;0.0;0.0;0.0;5.59;60;12.97;290;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-30;71.1;93.9;0.02;0.0;0.0;4.92;130;14.09;130;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-02;75.0;95.0;0.0;0.0;0.0;3.13;150;8.95;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-04;72.0;93.0;0.0;0.0;0.0;5.37;150;16.11;130;23.04;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-10;59.0;91.0;0.0;0.0;0.0;2.46;40;12.97;10;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-23;70.0;88.0;0.02;0.0;0.0;6.26;130;21.92;120;27.96;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-07-27;73.0;95.0;0.0;0.0;0.0;6.93;170;17.0;180;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-04;71.1;89.1;0.0;0.0;0.0;3.8;240;10.07;120;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-14;64.9;86.0;0.12;0.0;0.0;2.46;240;21.92;240;27.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-15;68.0;90.0;0.0;0.0;0.0;2.24;250;10.07;240;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-23;60.1;80.1;0.0;0.0;0.0;5.14;50;14.99;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-30;73.0;95.0;0.0;0.0;0.0;6.49;30;18.12;20;27.96;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-08;71.1;91.0;0.0;0.0;0.0;3.13;50;14.09;40;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-18;71.1;84.9;0.0;0.0;0.0;6.93;250;16.11;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-19;64.9;88.0;0.0;0.0;0.0;1.79;40;8.95;340;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-24;64.0;73.9;0.0;0.0;0.0;5.82;40;12.08;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-26;66.0;87.1;0.12;0.0;0.0;5.37;230;19.91;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-28;64.9;79.0;0.02;0.0;0.0;4.92;220;14.99;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-02;61.0;82.9;0.0;0.0;0.0;3.8;230;12.97;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-09;66.9;80.1;0.07;0.0;0.0;6.49;110;12.97;120;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-15;59.0;80.1;0.0;0.0;0.0;5.59;240;16.11;220;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-23;42.1;66.0;0.0;0.0;0.0;4.7;230;12.97;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-25;36.0;55.0;0.0;0.0;0.0;1.34;250;8.05;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-30;35.1;64.9;0.0;0.0;0.0;1.12;40;10.07;20;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-10;34.0;52.0;0.0;0.0;0.0;6.26;320;16.11;320;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-12;35.1;48.0;3.17;0.0;0.0;5.14;50;16.11;50;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-20;37.9;64.0;0.0;0.0;0.0;5.82;360;12.08;350;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-22;33.1;50.0;0.0;0.0;0.0;5.59;80;14.09;90;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-29;25.2;51.1;0.0;0.0;0.0;3.13;230;10.07;190;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-04;41.0;53.1;0.0;0.0;0.0;4.03;340;12.97;30;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-12;24.3;45.0;0.0;0.0;1.18;1.34;170;8.95;150;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-14;36.0;57.0;0.7;0.0;0.0;5.14;90;14.09;120;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-18;34.0;53.1;0.0;0.0;0.0;2.01;50;14.09;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-19;27.1;53.1;0.0;0.0;0.0;1.12;100;6.93;110;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-23;28.2;57.0;0.01;0.0;0.0;5.14;220;16.11;210;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-31;46.9;66.9;0.13;0.0;0.0;8.05;200;19.91;200;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-06;39.0;64.9;0.0;0.0;0.0;2.68;290;12.08;320;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-07;39.9;51.1;0.0;0.0;0.0;6.93;80;12.97;110;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-11;21.2;43.0;0.0;0.0;0.0;2.01;30;10.07;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-22;17.2;39.0;0.0;0.0;0.0;3.8;160;8.95;140;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-24;35.1;64.9;0.73;0.0;0.0;11.41;230;25.05;180;38.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-28;37.0;50.0;0.0;0.0;0.0;5.82;150;10.07;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-31;18.1;39.0;0.0;0.0;0.0;4.92;40;12.97;20;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-04;37.0;68.0;0.0;0.0;0.0;2.68;50;14.09;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-05;37.9;75.9;0.0;0.0;0.0;1.57;340;12.08;350;12.97;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-02-08;45.0;75.0;0.0;0.0;0.0;9.17;300;17.0;330;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-14;29.1;64.0;0.0;0.0;0.0;4.7;180;14.99;190;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-20;32.0;37.0;0.39;0.0;0.0;7.61;80;14.09;80;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-21;35.1;59.0;0.14;0.0;0.0;4.25;230;10.07;240;12.97;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-02-24;41.0;64.9;0.05;0.0;0.0;8.72;240;29.08;240;34.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-09;41.0;48.0;0.01;0.0;0.0;5.82;110;12.97;110;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-28;32.0;66.0;0.0;0.0;0.0;3.58;230;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-04;48.0;75.0;0.0;0.0;0.0;5.14;180;14.09;180;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-06;53.1;66.9;0.0;0.0;0.0;3.8;30;10.07;140;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-08;57.0;81.0;1.98;0.0;0.0;8.5;240;18.12;220;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-13;64.0;70.0;0.93;0.0;0.0;5.59;250;14.09;80;18.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-16;37.9;69.1;0.0;0.0;0.0;5.82;230;14.99;240;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-19;64.0;73.0;1.31;0.0;0.0;14.54;200;31.09;180;50.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-24;57.9;84.0;0.0;0.0;0.0;4.92;240;14.09;220;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-28;55.9;82.0;0.0;0.0;0.0;9.4;40;25.05;50;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-07;57.9;79.0;0.0;0.0;0.0;4.47;190;10.07;200;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-08;62.1;82.9;0.0;0.0;0.0;7.38;190;14.99;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-11;64.0;81.0;0.18;0.0;0.0;5.37;220;12.97;230;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-14;46.9;66.9;0.0;0.0;0.0;4.92;310;14.09;310;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-15;43.0;72.0;0.0;0.0;0.0;3.58;230;14.09;50;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-17;57.9;84.9;0.0;0.0;0.0;6.26;230;21.92;230;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-19;69.1;89.1;0.0;0.0;0.0;10.74;220;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-21;63.0;84.9;0.0;0.0;0.0;5.82;30;12.97;70;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-28;66.9;96.1;0.0;0.0;0.0;6.04;230;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-30;64.9;96.1;0.0;0.0;0.0;6.93;240;23.04;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-02;62.1;88.0;0.0;0.0;0.0;5.59;210;14.99;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-09;70.0;80.1;0.09;0.0;0.0;6.93;80;16.11;90;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-10;72.0;87.1;0.14;0.0;0.0;6.49;230;14.09;210;18.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-12;59.0;73.9;0.35;0.0;0.0;6.71;90;14.99;100;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-27;66.9;93.0;0.0;0.0;0.0;3.36;50;12.08;80;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-20;73.0;95.0;0.0;0.0;0.0;5.37;210;21.92;220;27.96;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-04;68.0;89.1;0.16;0.0;0.0;1.79;240;19.91;230;23.04;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-01-01;48.9;68.0;0.45;0.0;0.0;12.75;190;25.05;180;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-06;50.0;71.1;0.13;0.0;0.0;8.05;230;17.9;230;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-09;30.0;55.0;0.0;0.0;0.0;7.61;280;23.04;270;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-11;24.1;51.1;0.0;0.0;0.0;3.13;180;12.08;200;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-14;50.0;73.9;0.0;0.0;0.0;8.5;230;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-16;39.9;63.0;0.0;0.0;0.0;7.61;320;14.99;10;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-01;30.0;34.0;0.44;0.59;0.0;4.25;50;12.97;40;14.99;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2007-02-11;19.9;50.0;0.0;0.0;0.0;4.03;220;14.99;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-17;19.0;48.0;0.0;0.0;0.0;7.61;230;23.94;200;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-24;28.0;57.0;0.0;0.0;0.0;3.8;40;12.08;130;14.99;No;No;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No;No;No
2007-02-25;42.1;51.1;0.56;0.0;0.0;6.71;130;16.11;130;21.03;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-02-27;34.0;64.9;0.0;0.0;0.0;2.46;240;10.07;270;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-07;35.1;70.0;0.0;0.0;0.0;8.95;230;25.05;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-10;37.0;71.1;0.0;0.0;0.0;4.25;170;12.97;200;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-14;54.0;81.0;0.0;0.0;0.0;9.17;220;21.03;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-20;48.9;77.0;0.0;0.0;0.0;6.71;80;21.92;90;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-24;57.0;86.0;0.0;0.0;0.0;3.8;230;12.97;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-01;59.0;77.0;0.01;0.0;0.0;9.4;220;21.92;220;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-02;60.1;82.9;0.02;0.0;0.0;6.04;230;14.99;250;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-07;32.0;48.0;0.12;0.0;0.0;8.05;260;17.9;260;27.96;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2007-04-08;27.0;55.9;0.0;0.0;0.0;2.91;240;19.91;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-26;64.9;84.9;0.0;0.0;0.0;9.62;190;17.9;180;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-10;63.0;82.9;0.0;0.0;0.0;2.91;20;10.07;20;12.97;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-05-11;61.0;87.1;0.0;0.0;0.0;4.03;220;12.97;220;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-17;55.9;69.1;0.01;0.0;0.0;5.59;50;12.97;10;17.9;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-02;66.0;82.9;0.13;0.0;0.0;7.38;100;14.09;90;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-08;73.0;96.1;0.0;0.0;0.0;8.05;240;14.09;240;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-11;62.1;82.9;0.02;0.0;0.0;2.91;210;12.08;220;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-12;62.1;84.9;0.0;0.0;0.0;3.8;90;12.97;40;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-07-05;64.9;91.9;0.0;0.0;0.0;9.62;230;17.9;230;23.04;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-06;71.1;93.9;0.0;0.0;0.0;6.49;270;12.97;260;16.11;Yes;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-19;71.1;93.9;0.0;0.0;0.0;7.38;230;17.9;230;21.92;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-11;73.0;84.9;0.0;0.0;0.0;7.16;90;14.99;120;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-12;66.9;91.9;0.0;0.0;0.0;5.14;100;12.97;180;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-18;66.9;90.0;0.0;0.0;0.0;6.49;50;17.0;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-24;73.9;99.0;0.0;0.0;0.0;7.38;220;14.09;220;16.11;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-27;71.1;90.0;0.0;0.0;0.0;5.82;50;12.97;50;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-28;71.1;93.9;0.0;0.0;0.0;5.82;60;12.97;10;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-30;73.0;90.0;0.0;0.0;0.0;5.59;60;12.97;120;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-01;69.1;87.1;0.0;0.0;0.0;8.5;50;17.9;40;21.92;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-04;66.0;96.1;0.0;0.0;0.0;3.36;90;10.07;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-06;69.1;95.0;0.0;0.0;0.0;5.82;150;12.08;150;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-07;69.1;93.0;0.0;0.0;0.0;5.14;110;14.09;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-16;53.1;75.0;0.0;0.0;0.0;8.05;40;17.0;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-17;51.1;75.9;0.0;0.0;0.0;7.61;60;17.0;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-21;66.0;81.0;0.0;0.0;0.0;5.82;30;14.09;30;17.0;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-09-30;48.0;80.1;0.0;0.0;0.0;6.71;50;16.11;90;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-08;64.9;93.0;0.0;0.0;0.0;1.79;180;8.05;170;12.97;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-12;43.0;73.9;0.0;0.0;0.0;4.7;360;12.97;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-13;43.0;75.0;0.0;0.0;0.0;2.01;260;12.08;260;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-15;48.0;80.1;0.0;0.0;0.0;3.13;140;10.07;140;17.0;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-16;51.1;79.0;0.0;0.0;0.0;2.01;140;8.95;160;12.97;Yes;No;Yes;No;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-10-17;54.0;84.0;0.0;0.0;0.0;3.36;90;8.95;100;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-20;50.0;80.1;0.0;0.0;0.0;4.7;270;17.0;270;21.92;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-24;70.0;78.1;1.72;0.0;0.0;6.93;210;21.03;220;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-11-01;53.1;78.1;0.0;0.0;0.0;4.47;40;19.91;50;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-12;37.0;66.0;0.04;0.0;0.0;7.16;240;16.11;220;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-11-17;28.0;60.1;0.0;0.0;0.0;4.25;230;17.0;210;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-20;45.0;66.0;0.0;0.0;0.0;3.36;230;12.08;240;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-11-26;44.1;64.0;0.06;0.0;0.0;5.82;220;17.9;210;21.03;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-05;36.0;53.1;0.0;0.0;0.0;4.92;10;17.0;20;23.04;No;No;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2007-12-06;26.1;45.0;0.0;0.0;0.0;7.61;20;19.91;350;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-09;48.9;72.0;0.0;0.0;0.0;5.14;120;12.08;110;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-14;46.0;66.9;0.0;0.0;0.0;3.58;70;8.05;350;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-20;28.0;57.9;0.0;0.0;0.0;2.91;90;14.09;80;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-26;35.1;43.0;0.91;0.0;0.0;6.93;20;17.9;20;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-29;55.0;71.1;0.13;0.0;0.0;10.74;190;27.96;190;38.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-30;46.9;57.9;1.92;0.0;0.0;5.59;90;14.09;20;17.9;Yes;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2007-12-31;36.0;57.0;0.0;0.0;0.0;3.58;140;12.08;360;16.11;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-04;17.1;45.0;0.0;0.0;0.0;6.04;220;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-05;25.0;55.0;0.0;0.0;0.0;8.5;220;17.9;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-20;18.0;33.1;0.0;0.0;0.98;6.93;330;16.11;290;21.03;Yes;No;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2008-01-23;37.0;54.0;0.0;0.0;0.0;3.58;20;8.95;30;12.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-01-30;30.9;57.0;0.13;0.0;0.0;9.84;220;25.05;200;31.09;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2008-02-13;34.0;55.9;0.92;0.0;0.0;4.92;300;14.99;310;23.04;Yes;Yes;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2008-03-03;39.0;73.9;0.0;0.0;0.0;10.29;220;25.95;220;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-06;37.9;66.9;0.0;0.0;0.0;4.92;100;12.97;90;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-10;28.0;63.0;0.0;0.0;0.0;5.82;220;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-14;51.1;73.9;0.0;0.0;0.0;11.86;200;25.95;220;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-15;46.9;68.0;0.82;0.0;0.0;5.14;90;19.91;100;23.04;Yes;No;No;Yes;No;No;No;Yes;No;No;Yes;Yes;No;Yes;No;No;No
2008-03-24;36.0;51.1;0.0;0.0;0.0;6.93;50;17.0;50;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-03-28;57.0;81.0;0.0;0.0;0.0;10.74;230;23.94;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-29;41.0;68.0;0.06;0.0;0.0;10.74;40;21.92;30;27.96;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2008-04-13;46.0;66.9;0.0;0.0;0.0;6.04;240;17.9;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-16;32.0;68.0;0.0;0.0;0.0;3.8;50;16.11;10;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-21;46.0;69.1;0.01;0.0;0.0;6.71;40;17.0;40;21.92;Yes;Yes;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;Yes;Yes;No
2008-04-23;55.9;75.9;0.04;0.0;0.0;6.49;80;16.11;60;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2008-04-30;37.9;66.9;0.0;0.0;0.0;2.91;230;10.07;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-10;55.9;80.1;0.0;0.0;0.0;7.16;40;21.92;20;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-11;51.1;66.9;0.94;0.0;0.0;8.5;250;21.92;150;29.08;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-05-17;46.9;75.0;0.0;0.0;0.0;8.05;230;19.91;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-21;52.0;75.0;0.0;0.0;0.0;3.8;250;19.91;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-24;54.0;75.0;0.0;0.0;0.0;6.71;70;14.99;10;19.91;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-26;55.0;84.0;0.0;0.0;0.0;10.29;220;19.91;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-27;63.0;87.1;0.0;0.0;0.0;10.96;230;17.9;230;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-05-31;68.0;89.1;0.0;0.0;0.0;10.29;230;21.03;220;25.05;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-06-03;66.0;88.0;0.0;0.0;0.0;9.62;190;19.91;200;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-09;73.9;100.0;0.0;0.0;0.0;3.13;40;12.08;40;14.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-06-12;73.9;89.1;0.0;0.0;0.0;6.04;110;12.97;130;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-06-15;69.1;91.0;0.41;0.0;0.0;4.7;220;16.11;230;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2008-06-24;63.0;91.0;0.0;0.0;0.0;3.13;290;12.97;290;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-26;72.0;97.0;0.0;0.0;0.0;8.5;220;14.99;240;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-06-28;70.0;98.1;0.0;0.0;0.0;10.29;230;23.94;220;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-06-30;69.1;89.1;0.48;0.0;0.0;5.82;300;17.0;300;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-07-01;62.1;81.0;0.0;0.0;0.0;4.25;290;12.97;320;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-03;66.9;91.9;0.0;0.0;0.0;9.4;230;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-06;70.0;87.1;0.85;0.0;0.0;4.47;200;21.03;210;27.96;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-07-10;71.1;89.1;0.0;0.0;0.0;4.92;190;16.11;190;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-07-14;69.1;79.0;0.53;0.0;0.0;4.25;30;10.07;40;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2008-07-18;64.9;91.0;0.6;0.0;0.0;3.58;150;19.91;160;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-07-20;71.1;93.0;0.0;0.0;0.0;3.36;20;12.08;10;14.99;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-07-21;72.0;97.0;0.0;0.0;0.0;2.91;10;10.07;280;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-22;72.0;97.0;0.49;0.0;0.0;4.47;230;38.92;240;46.98;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-07-24;64.9;87.1;0.0;0.0;0.0;3.36;40;12.08;350;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-26;66.0;87.1;0.0;0.0;0.0;6.93;220;17.0;210;21.03;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-08-03;70.0;91.9;0.0;0.0;0.0;3.36;40;12.97;330;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-04;66.0;93.9;0.0;0.0;0.0;2.24;230;14.99;220;19.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-08;70.0;91.0;0.0;0.0;0.0;4.92;220;14.09;20;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-18;64.0;89.1;0.0;0.0;0.0;3.36;170;10.07;180;12.08;Yes;No;Yes;No;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-19;66.9;95.0;0.0;0.0;0.0;2.91;200;10.07;180;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-08-27;71.1;84.0;3.43;0.0;0.0;12.3;120;21.03;120;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-08-28;72.0;89.1;0.21;0.0;0.0;3.13;150;12.97;10;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-08-31;69.1;90.0;0.32;0.0;0.0;5.59;40;21.92;30;25.05;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-09-03;61.0;90.0;0.0;0.0;0.0;2.68;220;10.07;240;12.97;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-05;64.0;82.0;0.47;0.0;0.0;7.61;60;14.99;90;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-09-06;71.1;88.0;4.72;0.0;0.0;9.62;50;21.03;310;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-09-09;70.0;87.1;0.0;0.0;0.0;6.71;230;14.09;230;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-09-12;70.0;86.0;0.0;0.0;0.0;4.25;230;10.07;230;14.09;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2008-09-18;55.9;81.0;0.0;0.0;0.0;5.37;40;16.11;50;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-25;59.0;64.0;0.33;0.0;0.0;16.55;20;23.94;10;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2008-09-27;64.9;80.1;0.18;0.0;0.0;3.58;280;8.95;150;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-09;64.0;75.9;0.29;0.0;0.0;2.46;150;8.05;120;10.07;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-19;39.0;61.0;0.0;0.0;0.0;6.93;40;17.9;30;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-22;35.1;60.1;0.0;0.0;0.0;5.59;40;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-24;48.0;63.0;0.03;0.0;0.0;9.84;100;21.03;90;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-25;57.9;77.0;0.02;0.0;0.0;7.61;210;14.99;230;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-27;35.1;60.1;0.0;0.0;0.0;4.47;20;16.11;340;21.92;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-28;34.0;55.0;0.0;0.0;0.0;8.72;300;21.03;310;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-31;30.9;66.9;0.0;0.0;0.0;2.91;220;12.08;240;14.99;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-03;55.0;57.9;0.13;0.0;0.0;8.72;40;14.09;30;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;Yes;No
2008-11-04;55.9;59.0;0.92;0.0;0.0;10.51;20;16.11;30;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-11-12;39.0;61.0;0.0;0.0;0.0;4.03;90;12.97;90;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-13;51.1;66.0;0.09;0.0;0.0;4.7;140;14.99;150;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-11-17;32.0;55.0;0.0;0.0;0.0;3.8;270;12.97;330;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-27;28.9;63.0;0.0;0.0;0.0;2.91;230;10.07;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-01;36.0;52.0;0.0;0.0;0.0;14.09;220;34.9;220;42.95;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-07;25.0;43.0;0.0;0.0;0.0;4.47;290;17.0;270;23.04;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-27;43.0;59.0;0.01;0.0;0.0;3.36;180;8.05;210;8.95;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No
2008-12-29;39.0;60.1;0.02;0.0;0.0;3.36;270;12.08;360;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-01-02;27.0;42.1;0.05;0.0;0.0;6.26;220;14.09;220;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-01-03;32.0;57.9;0.0;0.0;0.0;2.01;240;8.05;240;10.07;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-01-07;41.0;68.0;0.16;0.0;0.0;18.34;240;42.95;230;59.06;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-01-08;36.0;53.1;0.0;0.0;0.0;9.17;240;17.0;230;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-10;33.1;64.0;0.0;0.0;0.0;10.74;230;23.94;230;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-13;32.0;43.0;0.0;0.0;0.0;2.46;260;8.05;130;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-23;30.9;60.1;0.0;0.0;0.0;8.05;240;17.0;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-28;42.1;66.9;0.42;0.0;0.0;9.17;220;31.99;290;40.04;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-01-30;28.0;50.0;0.0;0.0;0.0;4.7;290;17.0;330;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-01;32.0;62.1;0.0;0.0;0.0;11.86;220;25.05;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-02;37.0;64.0;0.11;0.0;0.0;9.62;240;21.03;220;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-02-04;25.0;37.9;0.0;0.0;0.0;8.5;300;17.0;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-08;44.1;75.0;0.0;0.0;0.0;7.83;280;16.11;280;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-12;51.1;69.1;0.0;0.0;0.0;11.86;270;23.94;260;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-14;45.0;63.0;0.0;0.0;0.0;8.72;240;17.9;230;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-18;39.9;57.0;0.59;0.0;0.0;10.74;220;17.0;210;23.04;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-02-26;37.0;64.9;0.0;0.0;0.0;7.38;220;17.9;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-03;18.0;36.0;0.0;0.0;0.98;3.58;360;12.08;290;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-18;43.0;68.0;0.0;0.0;0.0;4.92;230;12.08;240;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2009-03-21;30.9;57.0;0.0;0.0;0.0;4.03;50;12.97;130;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-30;44.1;66.9;0.0;0.0;0.0;6.04;270;16.11;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-02;57.9;64.9;0.33;0.0;0.0;7.38;140;14.99;150;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-04-17;36.0;73.9;0.0;0.0;0.0;3.8;230;10.07;240;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-18;45.0;82.9;0.0;0.0;0.0;7.83;230;14.99;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-21;50.0;75.0;0.0;0.0;0.0;5.14;230;29.97;220;36.91;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-26;61.0;91.0;0.0;0.0;0.0;8.05;220;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-27;61.0;89.1;0.0;0.0;0.0;7.38;210;17.0;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-28;55.0;84.9;0.0;0.0;0.0;9.62;220;17.9;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-30;55.0;75.9;0.0;0.0;0.0;5.59;190;16.11;190;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-05-06;61.0;82.9;0.17;0.0;0.0;6.93;230;21.03;220;23.94;Yes;Yes;No;No;No;No;No;No;No;No;Yes;Yes;No;Yes;Yes;No;No
2009-05-13;55.0;75.0;0.0;0.0;0.0;7.61;100;17.0;120;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-16;70.0;87.1;0.01;0.0;0.0;9.62;190;17.9;240;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-05-22;57.9;87.1;0.0;0.0;0.0;3.8;150;10.07;150;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-24;66.9;84.0;0.54;0.0;0.0;4.92;230;14.99;230;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-03;70.0;91.9;0.0;0.0;0.0;8.28;220;17.9;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-08;66.0;91.0;0.0;0.0;0.0;3.13;220;10.07;230;14.99;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-06-13;70.0;91.9;0.0;0.0;0.0;2.91;340;8.95;250;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-14;70.0;86.0;0.0;0.0;0.0;5.59;30;14.09;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-26;69.1;97.0;0.0;0.0;0.0;5.14;250;14.09;230;17.0;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-07-08;64.9;91.0;0.0;0.0;0.0;5.37;40;12.97;40;16.11;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-07-14;64.9;88.0;0.0;0.0;0.0;4.7;50;16.11;20;23.04;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-07-15;63.0;91.9;0.0;0.0;0.0;5.59;220;14.09;230;19.91;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2009-07-20;66.9;79.0;0.19;0.0;0.0;5.14;50;12.97;100;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-07-31;73.0;93.0;0.03;0.0;0.0;12.53;240;25.05;220;31.99;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-04;66.9;95.0;0.0;0.0;0.0;3.58;240;12.97;230;31.99;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-08-08;69.1;91.0;0.0;0.0;0.0;7.61;240;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-13;71.1;81.0;0.0;0.0;0.0;2.01;140;8.05;160;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-08-16;69.1;90.0;0.08;0.0;0.0;2.01;170;16.11;170;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-19;73.0;98.1;0.0;0.0;0.0;9.84;230;17.9;210;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-20;73.0;91.9;0.0;0.0;0.0;6.71;220;17.9;230;23.94;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-08-21;75.9;93.9;0.0;0.0;0.0;8.05;160;17.9;150;23.94;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-08-28;71.1;90.0;0.37;0.0;0.0;4.03;120;25.05;130;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-08-31;64.9;72.0;0.14;0.0;0.0;5.59;50;12.08;50;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-09-11;55.9;82.9;0.0;0.0;0.0;2.91;280;12.08;70;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-17;64.9;71.1;0.37;0.0;0.0;4.03;70;10.07;80;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2015-03-22;46.9;66.0;0.0;0.0;0.0;4.25;140;12.97;140;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-24;36.0;66.9;0.0;0.0;0.0;5.14;110;18.12;120;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-25;46.9;66.9;0.0;0.0;0.0;4.03;90;16.11;100;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-07;61.0;72.0;0.11;0.0;0.0;5.14;240;14.99;190;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-11;52.0;75.0;0.0;0.0;0.0;3.8;280;12.97;20;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-15;52.0;61.0;0.31;0.0;0.0;5.59;50;10.96;30;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-17;55.9;78.1;0.0;0.0;0.0;2.01;230;8.05;250;12.97;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-04-18;61.0;80.1;0.01;0.0;0.0;3.13;130;12.08;140;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-21;52.0;70.0;0.63;0.0;0.0;4.92;240;17.0;240;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-04-27;39.0;68.0;0.0;0.0;0.0;4.03;300;14.09;10;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-29;43.0;70.0;0.0;0.0;0.0;2.01;220;10.07;220;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-04;53.1;82.0;0.0;0.0;0.0;7.61;200;14.99;200;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-06;54.0;82.9;0.0;0.0;0.0;3.8;160;12.08;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-10;68.0;78.1;0.22;0.0;0.0;9.4;90;21.92;50;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-16;60.1;84.9;0.0;0.0;0.0;7.16;220;14.09;220;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-17;63.0;88.0;0.0;0.0;0.0;6.93;230;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-22;52.0;75.0;0.0;0.0;0.0;3.13;30;10.07;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-28;68.0;87.1;0.15;0.0;0.0;4.7;250;14.99;260;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-05-30;66.0;88.0;0.0;0.0;0.0;4.25;200;12.97;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-18;71.1;98.1;2.1;0.0;0.0;5.59;90;23.04;90;29.97;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-24;73.9;95.0;0.0;0.0;0.0;4.92;220;14.09;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-25;71.1;91.9;0.31;0.0;0.0;5.82;230;19.91;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-30;66.9;91.9;0.02;0.0;0.0;6.71;240;23.04;240;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-01;66.9;87.1;0.0;0.0;0.0;7.38;220;17.0;230;23.04;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-07-08;72.0;91.0;0.0;0.0;0.0;6.71;250;23.04;250;31.09;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-22;71.1;88.0;0.0;0.0;0.0;2.24;90;8.95;120;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-28;73.0;90.0;0.0;0.0;0.0;4.03;170;14.09;150;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-04;73.0;95.0;0.0;0.0;0.0;5.37;220;12.97;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-11;69.1;87.1;0.29;0.0;0.0;7.38;310;21.03;330;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-08-13;63.0;88.0;0.0;0.0;0.0;2.46;80;12.08;100;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-15;66.0;91.0;0.0;0.0;0.0;2.68;40;8.95;110;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-18;73.9;84.9;0.0;0.0;0.0;5.82;190;19.91;200;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-02;68.0;93.9;0.1;0.0;0.0;3.36;50;18.12;30;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-09-25;64.0;70.0;1.42;0.0;0.0;11.41;70;19.91;80;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-28;70.0;80.1;0.28;0.0;0.0;8.72;90;21.03;90;29.08;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-10-04;57.9;69.1;0.13;0.0;0.0;17.67;50;25.95;50;36.91;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-10-10;55.9;66.9;0.18;0.0;0.0;6.93;60;17.0;50;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-15;46.9;73.0;0.0;0.0;0.0;2.91;270;10.07;310;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-16;46.9;68.0;0.01;0.0;0.0;2.24;350;8.05;360;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-22;41.0;79.0;0.0;0.0;0.0;2.01;230;12.08;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-23;48.9;79.0;0.0;0.0;0.0;4.92;40;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-01;55.0;63.0;0.15;0.0;0.0;2.01;200;8.05;200;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-02;59.0;66.0;1.52;0.0;0.0;4.7;40;12.08;40;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-04;59.0;70.0;0.0;0.0;0.0;3.13;60;8.95;60;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-14;34.0;60.1;0.0;0.0;0.0;3.36;320;12.97;300;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-24;27.1;57.0;0.0;0.0;0.0;0.67;230;6.93;240;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-25;30.2;59.0;0.0;0.0;0.0;2.91;120;10.07;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-26;39.0;70.0;0.0;0.0;0.0;3.36;90;10.07;100;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-01;43.0;53.1;0.04;0.0;0.0;2.01;290;6.93;150;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-08;36.0;61.0;0.0;0.0;0.0;2.24;130;10.07;130;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-11;50.0;71.1;0.0;0.0;0.0;6.26;230;12.97;210;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-15;48.0;72.0;0.0;0.0;0.0;5.59;240;18.12;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-16;43.0;64.9;0.0;0.0;0.0;4.7;100;12.08;120;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-20;27.1;54.0;0.0;0.0;0.0;2.01;160;8.05;160;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-23;61.0;73.0;1.68;0.0;0.0;9.17;230;29.08;220;35.12;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-12-30;63.0;66.9;1.79;0.0;0.0;5.14;290;14.99;290;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-01-07;37.0;44.1;0.0;0.0;0.0;5.82;40;10.07;50;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-12;28.2;54.0;0.0;0.0;0.0;9.17;230;27.96;250;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-19;18.1;32.0;0.0;0.0;0.0;4.47;300;14.09;290;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-20;18.1;39.0;0.0;0.0;0.0;4.25;230;16.11;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-21;26.2;44.1;0.0;0.0;0.0;3.8;40;12.08;20;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-25;24.3;52.0;0.0;0.0;1.18;4.7;190;12.97;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-08;28.2;55.9;0.09;0.0;0.0;3.8;210;23.04;220;29.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-14;15.3;32.0;0.0;0.0;0.0;5.82;50;12.97;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-19;26.2;53.1;0.0;0.0;0.0;6.49;210;16.11;190;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-20;43.0;66.0;0.0;0.0;0.0;10.07;240;18.12;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-24;45.0;73.0;0.46;0.0;0.0;14.99;230;35.12;230;46.08;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-03-01;37.9;73.9;0.0;0.0;0.0;9.17;220;23.94;210;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-07;35.1;68.0;0.0;0.0;0.0;7.61;230;16.11;220;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-12;59.0;78.1;0.0;0.0;0.0;5.82;120;12.08;140;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-13;60.1;77.0;0.89;0.0;0.0;6.93;330;23.04;330;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2016-03-17;46.0;77.0;0.0;0.0;0.0;4.03;230;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-01;66.9;78.1;0.01;0.0;0.0;14.32;240;29.08;250;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-02;55.9;71.1;0.25;0.0;0.0;10.29;250;21.03;300;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-04;46.0;75.9;0.0;0.0;0.0;12.08;230;25.05;240;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-05;37.0;62.1;0.0;0.0;0.0;8.95;40;21.03;330;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-06;29.1;63.0;0.0;0.0;0.0;6.93;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-11;46.9;75.9;0.0;0.0;0.0;11.63;220;23.94;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-21;53.1;81.0;0.0;0.0;0.0;8.95;160;19.91;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-26;59.0;84.0;0.0;0.0;0.0;11.41;240;21.03;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-30;57.9;64.9;0.0;0.0;0.0;8.05;80;12.97;90;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-04;55.0;73.9;0.0;0.0;0.0;2.24;270;14.09;230;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-06;50.0;66.9;0.68;0.0;0.0;3.8;360;14.99;20;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-17;57.0;69.1;0.27;0.0;0.0;4.7;220;12.97;310;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-19;57.0;62.1;0.07;0.0;0.0;4.47;40;12.08;40;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-21;62.1;77.0;0.3;0.0;0.0;3.8;120;12.97;310;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-28;59.0;87.1;0.0;0.0;0.0;2.91;90;12.08;90;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-30;66.0;84.0;0.5;0.0;0.0;4.92;100;16.11;100;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-15;70.0;91.0;0.45;0.0;0.0;3.58;240;33.11;230;40.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-23;66.9;91.0;1.62;0.0;0.0;6.49;40;29.08;40;42.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-27;64.9;90.0;0.0;0.0;0.0;4.7;220;12.97;150;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-29;69.1;89.1;0.91;0.0;0.0;4.7;50;36.91;20;55.03;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-07-02;71.1;88.0;1.66;0.0;0.0;4.25;310;17.0;290;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-03;70.0;78.1;1.48;0.0;0.0;5.82;70;14.09;70;17.0;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-09;68.0;91.0;0.0;0.0;0.0;5.82;250;14.09;270;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-19;73.9;93.0;0.0;0.0;0.0;4.7;140;18.12;80;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-26;75.0;97.0;0.13;0.0;0.0;7.83;220;23.04;210;31.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-01;73.0;91.0;0.04;0.0;0.0;5.82;220;12.97;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-14;77.0;96.1;0.0;0.0;0.0;6.26;240;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-15;75.0;96.1;0.0;0.0;0.0;6.04;170;14.09;190;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-18;73.9;93.0;0.0;0.0;0.0;4.25;290;12.97;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-25;64.9;91.9;0.0;0.0;0.0;3.58;220;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-26;72.0;99.0;0.0;0.0;0.0;3.8;40;12.08;10;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-01;71.1;93.9;0.01;0.0;0.0;4.7;230;14.99;230;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-02;64.0;75.0;1.13;0.0;0.0;11.41;40;23.94;30;35.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-07;66.9;93.9;0.0;0.0;0.0;4.47;240;12.97;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-12;69.1;88.0;0.0;0.0;0.0;6.71;90;14.99;100;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-13;64.0;91.0;0.0;0.0;0.0;4.03;190;10.07;170;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-16;68.0;82.9;0.0;0.0;0.0;8.5;80;14.99;110;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-21;70.0;75.0;0.49;0.0;0.0;10.74;40;18.12;40;27.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-22;71.1;82.9;0.23;0.0;0.0;6.93;60;14.99;60;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-27;66.9;80.1;0.0;0.0;0.0;3.58;220;14.09;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-30;71.1;82.9;0.14;0.0;0.0;7.61;130;17.0;150;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-10-02;62.1;79.0;0.0;0.0;0.0;2.68;340;10.07;330;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-03;62.1;79.0;0.0;0.0;0.0;3.13;40;8.95;40;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-04;62.1;75.9;0.0;0.0;0.0;8.5;30;17.0;20;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-05;60.1;72.0;0.0;0.0;0.0;10.29;40;17.0;30;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-14;53.1;70.0;0.0;0.0;0.0;5.82;50;14.09;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-10;37.0;64.9;0.0;0.0;0.0;3.36;30;12.97;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-11;36.0;70.0;0.0;0.0;0.0;4.7;300;12.97;270;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-13;24.3;64.0;0.06;0.0;0.0;1.57;90;6.93;190;10.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-24;46.9;72.0;0.06;0.0;0.0;1.57;230;12.08;230;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-28;31.1;59.0;0.0;0.0;0.0;5.37;160;19.91;160;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-30;64.9;77.0;0.07;0.0;0.0;12.97;240;27.96;240;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-09;27.1;41.0;0.0;0.0;0.0;3.8;10;14.09;20;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-21;27.1;59.0;0.0;0.0;0.0;2.24;280;8.95;140;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-29;39.0;63.0;0.35;0.0;0.0;7.83;290;21.92;320;36.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-02;46.9;51.1;1.08;0.0;0.0;5.59;30;10.07;30;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-05;29.1;44.1;0.0;0.0;0.0;2.01;40;12.08;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-14;42.1;55.0;0.0;0.0;0.0;6.71;50;17.0;70;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-15;39.9;57.0;0.02;0.0;0.0;5.82;70;16.11;50;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-22;53.1;55.9;0.09;0.0;0.0;5.82;80;23.04;80;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-26;43.0;70.0;0.06;0.0;0.0;13.42;280;23.94;320;38.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-31;31.1;68.0;0.0;0.0;0.0;12.75;230;25.95;240;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-04;26.2;45.0;0.0;0.0;0.0;4.7;40;14.09;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-09;32.0;60.1;0.11;0.0;0.0;10.96;310;23.94;330;40.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-02-14;30.2;64.0;0.0;0.0;0.0;4.7;210;17.0;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-17;34.0;66.0;0.0;0.0;0.0;6.71;220;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-21;44.1;66.0;0.0;0.0;0.0;5.82;130;12.97;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-03;31.1;54.0;0.0;0.0;0.0;6.71;280;21.03;300;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-06;34.0;64.9;0.0;0.0;0.0;6.71;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-14;30.2;54.0;0.25;0.0;0.0;10.51;290;23.04;270;40.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-17;23.2;57.9;0.03;0.0;0.0;4.92;230;16.11;230;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-18;44.1;64.0;0.5;0.0;0.0;7.83;300;23.94;300;35.12;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2017-03-19;36.0;57.0;0.0;0.0;0.0;7.16;30;21.03;40;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-20;30.2;66.0;0.0;0.0;0.0;3.58;240;12.97;230;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-23;31.1;55.9;0.0;0.0;0.0;7.38;50;14.09;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-30;55.0;66.9;0.0;0.0;0.0;8.95;160;16.11;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-09;37.9;77.0;0.0;0.0;0.0;4.47;230;14.09;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-11;55.0;82.0;0.0;0.0;0.0;10.51;230;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-17;62.1;86.0;0.05;0.0;0.0;9.84;310;19.91;300;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-25;57.9;70.0;2.17;0.0;0.0;6.93;40;12.97;20;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-26;55.9;81.0;0.0;0.0;0.0;5.37;230;16.11;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-01;68.0;84.9;0.29;0.0;0.0;15.66;200;27.96;200;42.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-06;53.1;66.9;0.02;0.0;0.0;10.96;280;21.92;270;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-11;61.0;84.0;0.48;0.0;0.0;4.92;20;23.94;20;44.96;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2017-05-13;52.0;66.0;0.23;0.0;0.0;4.47;40;10.07;340;12.97;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-18;66.0;86.0;0.0;0.0;0.0;10.96;230;18.12;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-19;68.0;89.1;0.0;0.0;0.0;8.05;280;19.91;290;31.09;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-20;66.9;90.0;0.0;0.0;0.0;7.38;80;21.92;70;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-28;66.9;86.0;0.08;0.0;0.0;6.71;270;17.0;240;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-29;64.0;87.1;0.08;0.0;0.0;3.13;270;12.08;280;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-30;68.0;82.0;0.06;0.0;0.0;4.03;220;12.08;220;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-01;62.1;84.9;0.0;0.0;0.0;1.57;280;10.07;270;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-03;57.0;88.0;0.0;0.0;0.0;3.36;230;14.99;250;19.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-06-04;61.0;90.0;0.38;0.0;0.0;5.82;240;25.95;230;33.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-07;59.0;77.0;0.0;0.0;0.0;10.29;90;18.12;100;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-11;66.9;90.0;0.0;0.0;0.0;6.26;240;14.99;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-12;66.9;89.1;0.0;0.0;0.0;6.49;230;14.99;240;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-16;70.0;89.1;2.3;0.0;0.0;4.03;170;23.04;160;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-25;66.9;84.0;0.0;0.0;0.0;3.58;360;12.08;290;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-05;70.0;89.1;0.47;0.0;0.0;2.46;10;12.97;340;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-08;71.1;95.0;0.05;0.0;0.0;6.49;30;16.11;20;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-12;75.0;93.9;0.0;0.0;0.0;8.72;210;16.11;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-13;78.1;97.0;0.0;0.0;0.0;8.5;220;17.0;280;23.94;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-15;75.0;93.9;0.0;0.0;0.0;5.82;230;16.11;230;21.03;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-18;71.1;89.1;0.0;0.0;0.0;5.14;10;12.97;360;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-19;66.9;93.9;0.0;0.0;0.0;2.68;70;12.08;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-21;73.9;98.1;0.0;0.0;0.0;5.59;230;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-25;73.9;91.0;0.0;0.0;0.0;4.7;110;12.97;120;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-07-26;72.0;90.0;0.0;0.0;0.0;5.82;100;16.11;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-27;72.0;93.9;0.02;0.0;0.0;7.61;230;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-31;57.9;87.1;0.0;0.0;0.0;4.47;90;17.0;130;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-02;66.0;91.0;0.0;0.0;0.0;3.36;50;8.95;220;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-05;68.0;91.9;0.0;0.0;0.0;6.49;240;14.99;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-06;64.9;90.0;0.0;0.0;0.0;7.61;110;14.99;100;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-09;66.9;84.0;0.0;0.0;0.0;6.71;80;16.11;100;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-20;71.1;95.0;0.0;0.0;0.0;3.58;70;12.97;100;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-22;73.9;96.1;0.0;0.0;0.0;7.61;220;16.11;220;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-25;68.0;84.9;0.0;0.0;0.0;5.14;80;10.07;150;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-27;63.0;81.0;0.0;0.0;0.0;9.17;80;17.0;80;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-28;62.1;78.1;0.03;0.0;0.0;11.41;40;21.92;50;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-01;64.0;78.1;1.06;0.0;0.0;7.83;50;21.92;90;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-09-06;61.0;82.0;0.52;0.0;0.0;4.92;310;16.11;310;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-15;63.0;84.9;0.0;0.0;0.0;1.79;40;8.05;20;10.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-28;63.0;93.9;0.0;0.0;0.0;3.13;50;17.0;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-01;48.0;71.1;0.0;0.0;0.0;7.16;60;16.11;60;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-11;73.0;89.1;1.12;0.0;0.0;8.05;100;21.92;90;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-10-16;51.1;69.1;0.25;0.0;0.0;5.82;40;12.08;330;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-18;37.0;68.0;0.0;0.0;0.0;2.68;40;12.08;80;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-23;61.0;75.9;1.12;0.0;0.0;10.74;140;23.94;160;34.0;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-10-24;52.0;72.0;0.0;0.0;0.0;6.49;230;16.11;240;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-07;44.1;63.0;0.1;0.0;0.0;6.49;30;16.11;30;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-13;42.1;60.1;0.64;0.0;0.0;4.25;360;12.08;340;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-25;29.1;66.9;0.0;0.0;0.0;4.92;230;14.99;230;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-08;32.0;43.0;1.33;0.31;0.0;5.82;30;12.97;20;18.12;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2017-12-09;32.0;34.0;0.3;0.0;0.0;5.82;270;12.08;10;17.0;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2012-06-23;70.0;89.1;0.0;0.0;0.0;4.03;170;12.97;170;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-24;68.0;91.9;0.0;0.0;0.0;5.14;180;16.11;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-28;60.1;97.0;0.0;0.0;0.0;6.93;230;17.9;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-03;72.0;100.9;0.0;0.0;0.0;2.91;180;14.99;180;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-04;73.0;100.9;0.24;0.0;0.0;3.8;100;23.94;100;29.97;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-10;73.0;86.0;0.01;0.0;0.0;3.58;30;14.99;40;21.92;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-15;73.9;93.9;0.0;0.0;0.0;7.83;230;14.09;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-17;71.1;98.1;0.0;0.0;0.0;4.7;220;17.0;220;23.04;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-23;72.0;96.1;0.11;0.0;0.0;5.14;230;17.9;240;23.94;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-31;71.1;88.0;0.0;0.0;0.0;2.01;200;8.95;200;12.97;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-03;70.0;93.0;0.0;0.0;0.0;6.93;170;14.99;190;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-09;66.0;89.1;0.0;0.0;0.0;4.7;220;12.97;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-11;72.0;88.0;0.4;0.0;0.0;6.93;220;19.91;110;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-20;66.9;81.0;0.15;0.0;0.0;1.12;250;6.93;260;8.95;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-29;70.0;86.0;0.0;0.0;0.0;3.13;80;8.95;130;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-06;72.0;90.0;0.55;0.0;0.0;7.16;230;16.11;240;21.03;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-09;60.1;79.0;0.02;0.0;0.0;4.25;330;12.08;20;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-10;55.0;78.1;0.0;0.0;0.0;3.36;30;12.97;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-16;59.0;64.9;0.69;0.0;0.0;3.13;320;8.95;90;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-28;62.1;84.9;0.06;0.0;0.0;3.8;260;10.07;10;14.99;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-30;57.9;73.0;0.0;0.0;0.0;2.46;190;6.93;90;12.97;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-10-09;48.0;57.0;0.0;0.0;0.0;3.36;40;10.07;40;14.99;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-10-11;46.0;68.0;0.0;0.0;0.0;2.68;30;10.07;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-22;42.1;73.9;0.0;0.0;0.0;0.45;10;6.93;30;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-23;46.0;80.1;0.0;0.0;0.0;2.68;220;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-29;42.1;51.1;0.55;0.0;0.0;10.07;260;21.03;260;33.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-10-31;37.0;55.9;0.0;0.0;0.0;7.83;270;14.99;260;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-07;35.1;54.0;0.0;0.0;0.0;4.03;30;12.97;30;17.0;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-11-08;34.0;61.0;0.0;0.0;0.0;2.68;300;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-20;42.1;59.0;0.0;0.0;0.0;2.68;50;8.05;30;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-23;28.9;66.9;0.0;0.0;0.0;5.14;230;16.11;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-25;23.0;51.1;0.0;0.0;0.0;4.92;240;16.11;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-08;50.0;66.0;0.01;0.0;0.0;4.92;240;10.07;220;14.99;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-12-13;33.1;51.1;0.13;0.0;0.0;5.82;30;14.09;40;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-12-19;33.1;64.9;0.0;0.0;0.0;3.13;250;12.97;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-23;25.0;55.0;0.0;0.0;0.0;4.47;240;14.99;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-30;28.0;46.0;0.0;0.0;0.0;5.37;310;16.11;330;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-06;35.1;50.0;0.0;0.0;0.0;3.58;220;8.95;200;10.07;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-08;39.0;55.0;0.59;0.0;0.0;7.61;30;17.9;40;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-09;28.0;52.0;0.0;0.0;0.0;3.8;330;12.08;310;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-14;30.9;52.0;0.0;0.0;0.0;2.68;240;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-15;28.9;61.0;0.0;0.0;0.0;2.91;250;14.09;350;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-17;24.1;37.0;0.0;0.0;0.0;6.71;290;19.91;300;31.99;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2013-02-18;18.0;52.0;0.0;0.0;0.0;5.14;200;14.99;200;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-24;39.9;62.1;0.08;0.0;0.0;3.58;270;14.09;300;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-27;43.0;59.0;0.0;0.0;0.0;8.72;230;19.91;230;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-28;33.1;50.0;0.0;0.0;0.0;4.03;280;17.0;290;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-03;27.0;46.0;0.0;0.0;0.0;4.47;270;14.99;330;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-04;26.1;50.0;0.0;0.0;0.0;4.7;290;16.11;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-07;30.0;51.1;0.0;0.0;0.0;5.37;320;14.09;20;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-11;39.0;70.0;0.0;0.0;0.0;9.17;150;19.91;150;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-16;46.0;78.1;0.0;0.0;0.0;10.51;230;25.05;250;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-06;39.0;64.0;0.0;0.0;0.0;7.61;130;17.0;120;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-11;62.1;81.0;0.0;0.0;0.0;12.3;230;21.92;200;29.08;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2013-04-14;44.1;79.0;0.0;0.0;0.0;3.36;200;14.09;180;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-19;64.0;84.0;0.57;0.0;0.0;15.21;220;46.98;220;59.06;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-26;46.0;71.1;0.0;0.0;0.0;3.58;20;12.97;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-27;53.1;72.0;0.0;0.0;0.0;2.91;220;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-28;55.0;62.1;0.97;0.0;0.0;4.92;120;12.08;120;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-03;48.0;69.1;0.0;0.0;0.0;9.84;80;21.03;80;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-07;50.0;71.1;0.0;0.0;0.0;4.92;230;18.12;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-08;52.0;72.0;0.18;0.0;0.0;3.58;300;19.91;310;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-15;55.0;86.0;0.0;0.0;0.0;9.84;230;18.12;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-20;66.9;75.0;1.47;0.0;0.0;5.59;170;10.96;180;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-23;64.9;82.0;0.18;0.0;0.0;7.16;220;12.97;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-24;52.0;70.0;0.0;0.0;0.0;5.82;290;19.91;310;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-27;48.9;80.1;0.0;0.0;0.0;4.92;230;12.97;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-30;64.0;86.0;0.0;0.0;0.0;5.59;240;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-31;66.0;87.1;0.0;0.0;0.0;6.93;240;14.09;200;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-01;66.9;89.1;0.0;0.0;0.0;9.17;230;18.12;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-07;68.0;75.9;5.14;0.0;0.0;4.92;350;14.09;120;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-08;66.0;84.0;0.04;0.0;0.0;3.36;230;14.09;230;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-10;70.0;84.9;0.66;0.0;0.0;11.63;240;25.05;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-12;64.0;90.0;0.0;0.0;0.0;4.92;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-24;71.1;89.1;0.0;0.0;0.0;8.5;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-28;69.1;91.9;1.66;0.0;0.0;9.17;240;19.91;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-01;69.1;82.9;0.72;0.0;0.0;6.26;180;18.12;170;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-02;72.0;77.0;0.3;0.0;0.0;8.5;210;14.99;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-04;73.0;88.0;0.0;0.0;0.0;7.16;140;16.11;150;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-14;70.0;88.0;0.0;0.0;0.0;6.71;80;14.09;90;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-26;62.1;86.0;0.0;0.0;0.0;3.58;110;8.05;160;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-11;71.1;91.9;0.0;0.0;0.0;3.13;350;8.95;330;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-14;61.0;75.0;0.0;0.0;0.0;5.59;40;14.09;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-24;64.9;82.9;0.0;0.0;0.0;8.28;80;17.0;80;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-01;71.1;91.0;1.16;0.0;0.0;7.61;100;23.94;90;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-05;64.9;87.1;0.0;0.0;0.0;2.46;270;10.07;280;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-08;63.0;88.0;0.0;0.0;0.0;2.01;50;8.95;30;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-14;57.9;75.9;0.0;0.0;0.0;6.71;30;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-15;53.1;80.1;0.0;0.0;0.0;3.58;90;8.95;80;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-16;66.0;86.0;0.06;0.0;0.0;5.82;60;17.0;40;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-18;51.1;73.9;0.0;0.0;0.0;2.91;60;10.07;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-19;54.0;78.1;0.0;0.0;0.0;2.01;80;8.05;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-22;57.0;77.0;0.43;0.0;0.0;7.16;30;21.03;30;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-26;57.0;77.0;0.0;0.0;0.0;4.7;50;14.09;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-28;50.0;73.0;0.0;0.0;0.0;4.92;40;17.0;50;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-04;62.1;86.0;0.0;0.0;0.0;3.58;230;12.08;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-05;61.0;89.1;0.0;0.0;0.0;2.24;240;10.07;210;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-11;59.0;66.0;0.02;0.0;0.0;2.68;340;8.95;340;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-16;61.0;70.0;0.0;0.0;0.0;1.12;30;6.04;170;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-18;55.9;69.1;0.0;0.0;0.0;3.13;30;12.08;20;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-22;51.1;64.0;0.0;0.0;0.0;2.46;230;8.95;160;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-23;46.0;66.9;0.0;0.0;0.0;7.16;290;18.12;300;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-25;33.1;55.9;0.0;0.0;0.0;3.36;30;12.97;340;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-07;46.0;70.0;0.03;0.0;0.0;4.7;230;14.09;320;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-08;33.1;57.9;0.0;0.0;0.0;2.91;300;12.97;300;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-15;30.2;60.1;0.0;0.0;0.0;1.57;230;8.95;230;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-02;36.0;60.1;0.0;0.0;0.0;0.67;80;6.04;140;8.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-11;24.3;48.9;0.0;0.0;0.0;2.91;230;12.08;210;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-14;37.9;46.9;0.85;0.0;0.0;4.92;80;14.09;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-03;22.1;43.0;0.0;0.0;0.0;7.38;300;21.92;310;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-04;19.2;37.9;0.0;0.0;0.0;2.24;120;8.05;120;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-21;26.2;51.1;0.1;0.51;0.0;4.92;40;17.0;360;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-22;18.1;30.2;0.0;0.0;0.0;4.47;30;12.97;20;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-31;15.3;53.1;0.0;0.0;0.0;2.01;220;8.95;220;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-01;24.3;59.0;0.0;0.0;0.0;2.91;140;12.08;150;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-05;37.9;53.1;0.06;0.0;0.0;4.7;240;12.08;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-17;28.2;45.0;0.0;0.0;0.0;6.26;130;14.99;130;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-23;34.0;66.9;0.0;0.0;0.0;6.49;230;21.03;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-05;30.2;44.1;0.0;0.0;0.0;4.03;50;10.07;40;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-07;33.1;36.0;1.72;0.0;0.0;10.29;40;21.92;30;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-15;46.0;72.0;0.0;0.0;0.0;8.5;240;23.04;250;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-24;30.2;50.0;0.0;0.0;0.0;4.7;60;12.08;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-26;29.1;46.9;0.0;0.0;0.0;6.93;280;17.0;290;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-28;44.1;69.1;0.31;0.0;0.0;6.71;220;21.92;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-03;50.0;78.1;0.0;0.0;0.0;4.92;210;12.08;210;14.99;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-04-11;52.0;78.1;0.0;0.0;0.0;13.42;230;29.08;220;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-13;59.0;81.0;0.0;0.0;0.0;11.18;230;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-17;31.1;64.0;0.0;0.0;0.0;7.83;50;18.12;130;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-23;50.0;71.1;0.0;0.0;0.0;6.04;280;16.11;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-16;55.0;73.0;0.18;0.0;0.0;7.16;260;16.11;180;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-18;46.0;68.0;0.0;0.0;0.0;3.8;50;12.97;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-20;50.0;79.0;0.0;0.0;0.0;8.05;230;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-31;63.0;82.0;0.0;0.0;0.0;5.14;50;14.99;40;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-15;57.9;87.1;0.0;0.0;0.0;2.91;210;8.95;130;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-06;61.0;90.0;0.0;0.0;0.0;5.82;240;14.99;190;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-09;73.9;96.1;0.02;0.0;0.0;6.93;240;23.94;220;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-13;71.1;93.9;0.0;0.0;0.0;7.16;180;14.99;190;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-17;60.1;84.0;0.0;0.0;0.0;2.24;350;8.05;40;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-29;63.0;82.0;0.0;0.0;0.0;2.01;50;10.07;60;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-14;57.9;82.9;0.0;0.0;0.0;2.91;240;12.08;240;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-16;68.0;89.1;0.0;0.0;0.0;3.36;220;12.08;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-22;71.1;91.9;0.0;0.0;0.0;2.24;250;14.09;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-23;72.0;84.0;0.01;0.0;0.0;5.59;80;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-29;72.0;82.0;0.07;0.0;0.0;6.26;70;12.08;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-03;71.1;93.0;0.0;0.0;0.0;4.92;170;17.0;180;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-09-04;71.1;90.0;1.18;0.0;0.0;3.8;220;23.94;210;29.97;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2014-09-12;70.0;80.1;0.01;0.0;0.0;5.59;80;12.97;90;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-15;63.0;75.0;0.0;0.0;0.0;2.68;210;8.05;160;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-17;66.0;79.0;0.0;0.0;0.0;6.04;90;12.97;110;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-22;61.0;75.9;0.0;0.0;0.0;2.68;30;12.97;340;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-23;55.0;64.0;0.15;0.0;0.0;7.83;50;17.0;40;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-26;59.0;75.9;0.0;0.0;0.0;5.37;40;14.09;60;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-30;59.0;75.0;0.0;0.0;0.0;1.34;90;6.93;100;12.97;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-10-02;59.0;84.0;0.0;0.0;0.0;2.91;60;12.08;120;17.0;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-10-11;57.9;86.0;0.22;0.0;0.0;9.4;240;16.11;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-12;57.0;62.1;0.02;0.0;0.0;5.59;40;14.09;30;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-23;42.1;70.0;0.0;0.0;0.0;4.25;290;12.97;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-27;39.9;75.9;0.0;0.0;0.0;1.57;180;8.95;120;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-01;45.0;51.1;0.61;0.0;0.0;8.5;20;18.12;10;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-05;46.9;71.1;0.0;0.0;0.0;6.04;240;12.97;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-07;37.9;60.1;0.0;0.0;0.0;4.03;290;16.11;310;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-08;31.1;60.1;0.0;0.0;0.0;2.91;230;12.97;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-10;35.1;66.0;0.0;0.0;0.0;2.46;90;12.97;100;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-14;29.1;44.1;0.0;0.0;0.0;5.37;40;14.09;20;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-16;27.1;48.9;0.04;0.0;0.0;1.79;90;6.93;130;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-19;19.2;43.0;0.0;0.0;0.0;5.82;220;16.11;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-28;26.2;45.0;0.0;0.0;0.0;2.46;360;12.08;340;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-01;44.1;73.9;0.0;0.0;0.0;6.04;210;12.97;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-04;39.9;54.0;0.0;0.0;0.0;6.26;60;10.07;80;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-06;46.0;55.9;0.16;0.0;0.0;3.58;20;16.11;30;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-08;34.0;45.0;0.13;0.0;0.0;8.5;30;17.0;30;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-12;26.2;57.0;0.0;0.0;0.0;3.58;300;14.99;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-14;29.1;57.9;0.0;0.0;0.0;1.34;30;10.07;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-22;36.0;41.0;0.4;0.0;0.0;6.71;50;14.09;50;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-14;28.2;33.1;0.01;0.0;0.0;4.92;30;12.08;30;17.0;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2015-01-21;36.0;54.0;0.0;0.0;0.0;4.92;20;12.08;100;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-26;37.9;50.0;0.24;0.0;0.0;2.91;330;8.95;330;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-31;22.1;48.0;0.0;0.0;0.0;2.46;290;12.08;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-03;22.1;45.0;0.0;0.0;0.0;3.36;240;10.07;20;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-08;39.0;72.0;0.0;0.0;0.0;14.09;230;27.96;230;38.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-11;30.2;51.1;0.0;0.0;0.0;4.92;30;18.12;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-13;23.2;35.1;0.0;0.0;0.0;4.92;30;14.09;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-14;22.1;53.1;0.0;0.0;0.0;11.18;270;35.12;290;48.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-19;12.2;23.2;0.0;0.0;0.0;8.5;270;18.12;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-22;34.0;57.0;0.08;0.0;0.0;2.46;290;12.08;250;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-23;30.2;46.9;0.03;0.0;0.0;7.38;70;14.99;50;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-05;32.0;66.0;0.97;0.0;0.0;10.51;40;23.04;40;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-16;41.0;80.1;0.0;0.0;0.0;4.92;230;17.0;300;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-27;61.0;81.0;0.1;0.0;0.0;2.91;260;14.09;270;21.92;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-10-01;51.1;73.0;0.0;0.0;0.0;3.8;240;14.09;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-05;57.0;66.9;0.09;0.0;0.0;2.01;230;8.05;240;10.07;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-06;60.1;66.0;0.02;0.0;0.0;3.8;240;14.09;230;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2009-10-08;45.0;73.9;0.0;0.0;0.0;2.68;190;8.95;170;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-24;57.9;81.0;0.27;0.0;0.0;11.41;240;25.95;230;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-27;54.0;62.1;0.12;0.0;0.0;4.25;170;16.11;140;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-10-30;54.0;61.0;0.01;0.0;0.0;2.68;90;12.08;80;14.99;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-10-31;59.0;80.1;0.06;0.0;0.0;8.28;220;19.91;220;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-11-09;42.1;75.9;0.0;0.0;0.0;0.89;240;8.95;250;12.97;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-11;48.0;57.0;2.97;0.0;0.0;15.21;50;27.96;50;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-11-23;48.9;52.0;0.58;0.0;0.0;6.26;50;17.0;60;23.04;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-11-30;42.1;62.1;0.18;0.0;0.0;10.51;230;21.03;10;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-14;37.9;50.0;0.0;0.0;0.0;5.14;210;12.08;210;14.99;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No
2009-12-15;48.0;59.0;0.0;0.0;0.0;4.47;330;12.97;350;25.95;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-12-22;24.1;48.9;0.0;0.0;0.0;0.45;40;8.95;30;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-24;27.0;48.0;0.0;0.0;0.0;5.82;90;17.0;90;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-04;17.1;36.0;0.0;0.0;0.0;6.26;290;12.97;320;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-09;19.9;37.0;0.0;0.0;0.0;3.36;20;8.95;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-22;37.0;39.9;0.01;0.0;0.0;6.71;30;12.97;30;16.11;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2010-01-27;25.0;51.1;0.0;0.0;0.0;3.36;270;14.99;290;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-01;18.0;48.0;0.0;0.0;2.99;0.67;10;6.93;30;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-04;30.0;44.1;0.0;0.0;0.0;3.13;110;12.08;190;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-05;33.1;42.1;1.37;0.0;0.0;11.41;100;25.95;100;34.9;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;Yes;No;Yes;No;No;No
2010-02-09;32.0;39.9;0.35;0.0;0.0;4.7;90;16.11;90;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2010-02-10;28.0;37.9;0.0;0.0;0.0;13.42;280;27.96;290;44.07;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No
2010-02-11;30.0;45.0;0.0;0.0;0.0;8.28;290;16.11;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-13;28.0;42.1;0.05;0.98;2.01;4.92;290;14.09;300;21.03;Yes;No;Yes;Yes;No;No;No;No;Yes;No;Yes;No;No;No;No;No;No
2010-02-17;25.0;43.0;0.0;0.0;0.0;7.16;300;17.0;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-21;25.0;64.9;0.0;0.0;0.0;3.8;220;14.09;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-26;28.9;50.0;0.0;0.0;0.0;10.29;280;21.92;280;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-01;28.9;54.0;0.0;0.0;0.0;3.36;310;12.97;330;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-11;52.0;69.1;0.32;0.0;0.0;4.47;150;10.07;130;14.09;Yes;Yes;No;Yes;No;No;No;No;No;No;Yes;No;No;Yes;Yes;Yes;No
2010-03-13;48.9;68.0;0.42;0.0;0.0;8.28;230;21.03;220;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;Yes;Yes;No;No
2010-03-19;37.0;73.9;0.0;0.0;0.0;2.46;250;14.99;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-29;52.0;66.9;1.52;0.0;0.0;3.8;100;12.97;120;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-03-31;41.0;77.0;0.0;0.0;0.0;4.47;290;14.09;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-15;37.9;75.0;0.0;0.0;0.0;2.01;240;8.95;230;12.97;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-20;42.1;73.9;0.0;0.0;0.0;3.58;260;12.97;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-26;59.0;78.1;0.0;0.0;0.0;9.84;230;21.03;280;29.97;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-29;37.9;75.0;0.0;0.0;0.0;4.25;230;17.9;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-08;62.1;90.0;0.0;0.0;0.0;11.86;250;23.04;300;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-15;68.0;95.0;0.0;0.0;0.0;4.47;140;14.09;140;17.9;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-05-19;57.0;70.0;0.36;0.0;0.0;3.8;90;8.95;130;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-05-24;64.0;73.0;0.04;0.0;0.0;7.83;90;17.0;90;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2010-05-27;60.1;91.0;0.0;0.0;0.0;3.58;60;17.0;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-31;69.1;88.0;0.0;0.0;0.0;9.17;220;19.91;230;23.94;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-06-07;64.0;82.0;0.0;0.0;0.0;3.58;30;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-09;68.0;88.0;0.0;0.0;0.0;11.18;220;21.92;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-12;68.0;93.9;0.0;0.0;0.0;4.7;320;17.0;340;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2010-06-19;73.0;93.0;0.0;0.0;0.0;4.92;210;8.95;220;12.97;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-06-20;72.0;93.9;0.0;0.0;0.0;3.58;310;12.08;310;14.99;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-06-28;73.0;99.0;0.0;0.0;0.0;8.5;230;21.03;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-07-03;57.0;87.1;0.0;0.0;0.0;3.58;100;10.07;140;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-05;64.0;97.0;0.0;0.0;0.0;6.04;230;12.08;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-22;75.0;97.0;0.0;0.0;0.0;2.68;20;10.07;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-25;80.1;102.0;0.0;0.0;0.0;8.95;240;19.91;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-01;66.0;79.0;0.1;0.0;0.0;4.92;50;10.07;70;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-08-04;73.9;95.0;0.39;0.0;0.0;8.05;210;23.94;200;38.03;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2010-08-07;72.0;89.1;0.0;0.0;0.0;5.59;40;14.99;60;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-19;75.0;84.0;0.6;0.0;0.0;2.68;60;12.97;70;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-08-20;71.1;90.0;0.0;0.0;0.0;5.82;80;12.97;80;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-08-24;70.0;82.9;0.47;0.0;0.0;5.82;50;17.9;50;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-26;66.0;90.0;0.0;0.0;0.0;1.57;20;10.07;90;12.97;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-05;54.0;87.1;0.0;0.0;0.0;3.13;240;14.99;130;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-11;66.0;79.0;0.1;0.0;0.0;4.47;90;12.08;90;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-09-17;73.0;95.0;0.0;0.0;0.0;7.38;220;17.0;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-18;64.9;87.1;0.0;0.0;0.0;6.26;60;14.09;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-25;68.0;98.1;0.0;0.0;0.0;7.61;220;17.9;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-03;50.0;72.0;0.0;0.0;0.0;5.14;40;17.0;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-15;43.0;71.1;0.0;0.0;0.0;5.82;230;17.0;310;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-16;42.1;70.0;0.0;0.0;0.0;3.58;320;12.97;350;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-18;48.9;82.0;0.0;0.0;0.0;3.36;210;12.97;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-27;73.0;87.1;0.29;0.0;0.0;13.87;230;25.05;230;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-11-05;39.9;61.0;0.0;0.0;0.0;3.58;240;12.97;220;16.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-11-12;36.0;66.0;0.0;0.0;0.0;4.03;40;17.9;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-21;37.9;69.1;0.0;0.0;0.0;0.45;230;6.04;250;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-01;30.9;70.0;0.29;0.0;0.0;12.08;230;29.97;240;40.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2010-12-16;28.0;35.1;0.6;0.39;0.0;4.47;220;14.99;230;21.03;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No
2011-01-01;39.0;63.0;0.28;0.0;0.0;4.25;150;17.0;200;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-06;32.0;48.0;0.15;0.0;0.0;2.24;30;8.95;200;12.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-01-19;42.1;61.0;0.0;0.0;0.0;5.14;280;14.99;320;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-07;30.0;57.9;0.0;0.0;0.0;3.8;160;14.09;160;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-19;48.0;68.0;0.0;0.0;0.0;8.72;310;23.04;320;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-25;41.0;73.9;0.05;0.0;0.0;16.33;230;31.99;240;40.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-26;33.1;61.0;0.0;0.0;0.0;5.82;90;14.09;110;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-28;57.0;81.0;0.62;0.0;0.0;14.32;230;31.99;230;38.92;Yes;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-03-02;30.0;66.0;0.0;0.0;0.0;4.47;230;16.11;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-04;27.0;61.0;0.0;0.0;0.0;5.82;110;19.91;110;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-05;43.0;69.1;0.0;0.0;0.0;8.5;160;17.9;150;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-06;39.0;64.9;0.67;0.0;0.0;10.51;310;21.03;320;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-03-11;36.0;51.1;0.0;0.0;0.0;6.04;290;16.11;270;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-14;43.0;57.9;0.0;0.0;0.0;9.17;50;19.91;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-24;50.0;68.0;0.04;0.0;0.0;7.83;300;17.0;300;29.97;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-27;35.1;39.9;0.07;0.0;0.0;6.93;50;17.0;50;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-03;33.1;71.1;0.0;0.0;0.0;5.37;210;17.9;210;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-04;55.9;84.9;0.0;0.0;0.0;18.57;230;31.09;200;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-06;34.0;68.0;0.0;0.0;0.0;7.61;230;21.03;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-28;61.0;78.1;0.01;0.0;0.0;15.21;220;31.09;210;40.04;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-05-08;53.1;71.1;0.12;0.0;0.0;3.36;30;12.08;350;16.11;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-12;60.1;66.0;0.02;0.0;0.0;4.47;210;14.99;200;17.0;No;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-05-13;62.1;79.0;0.73;0.0;0.0;3.8;240;23.04;240;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-05-16;55.9;78.1;0.0;0.0;0.0;3.36;170;10.07;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-18;55.0;75.0;0.0;0.0;0.0;3.13;220;12.08;160;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-24;70.0;93.0;0.0;0.0;0.0;7.16;20;14.99;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-26;73.0;93.0;0.0;0.0;0.0;11.86;180;19.91;210;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-30;70.0;93.9;0.0;0.0;0.0;5.59;230;12.97;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-31;70.0;95.0;0.0;0.0;0.0;3.8;50;12.97;30;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-11;70.0;93.9;0.3;0.0;0.0;6.49;320;14.09;320;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-06-20;69.1;93.0;0.0;0.0;0.0;6.49;210;21.03;210;29.97;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-10;69.1;91.9;0.0;0.0;0.0;3.8;80;10.07;150;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-15;60.1;86.0;0.0;0.0;0.0;6.93;90;14.99;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-21;77.0;102.0;0.0;0.0;0.0;4.7;240;19.91;240;25.05;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-24;79.0;100.9;0.0;0.0;0.0;6.26;200;31.09;190;40.94;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-28;75.0;102.0;0.0;0.0;0.0;7.16;240;17.9;250;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-05;75.9;89.1;0.0;0.0;0.0;7.16;90;14.09;90;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2011-08-19;69.1;91.0;0.0;0.0;0.0;4.25;230;12.97;200;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-20;69.1;89.1;0.0;0.0;0.0;4.25;120;10.07;110;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-08-26;73.9;89.1;0.0;0.0;0.0;8.72;50;25.05;50;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-30;66.0;82.0;0.0;0.0;0.0;6.93;80;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-02;66.9;86.0;0.04;0.0;0.0;4.25;50;12.97;50;14.09;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-04;69.1;88.0;0.0;0.0;0.0;7.83;190;14.09;190;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-07;69.1;82.9;0.0;0.0;0.0;3.8;180;14.99;230;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-08;63.0;84.0;0.0;0.0;0.0;1.34;240;8.05;270;10.07;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-09;63.0;84.9;0.0;0.0;0.0;3.8;170;12.08;170;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-13;63.0;88.0;0.0;0.0;0.0;2.68;210;8.05;220;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-15;57.9;89.1;1.31;0.0;0.0;8.95;30;21.03;30;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-02;45.0;62.1;0.0;0.0;0.0;5.37;290;16.11;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-04;44.1;72.0;0.0;0.0;0.0;2.24;30;12.97;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-05;48.9;77.0;0.0;0.0;0.0;1.12;360;8.05;360;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-07;45.0;73.9;0.0;0.0;0.0;3.36;50;14.99;50;17.9;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-21;41.0;66.0;0.0;0.0;0.0;2.24;260;12.08;260;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-07;37.9;71.1;0.0;0.0;0.0;0.89;240;8.05;240;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-12;32.0;64.9;0.0;0.0;0.0;6.26;230;16.11;210;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-18;27.0;51.1;0.0;0.0;0.0;1.57;40;10.07;20;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-25;35.1;70.0;0.0;0.0;0.0;3.58;210;12.08;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-28;60.1;71.1;0.02;0.0;0.0;8.72;130;17.9;130;25.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-07;44.1;70.0;0.54;0.0;0.0;13.42;250;29.08;240;40.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-09;32.0;55.0;0.0;0.0;0.0;1.12;130;6.93;90;8.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-13;30.9;63.0;0.0;0.0;0.0;0.22;20;6.04;130;8.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-24;36.0;52.0;0.0;0.0;0.0;1.12;30;12.08;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-18;36.0;57.0;0.11;0.0;0.0;6.93;220;23.94;220;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-30;28.0;60.1;0.0;0.0;0.0;4.25;230;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-03;34.0;57.9;0.0;0.0;0.0;3.36;50;12.08;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-12;21.0;42.1;0.0;0.0;0.0;7.61;310;19.91;320;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-16;42.1;57.9;0.25;0.0;0.0;4.47;160;16.11;130;23.04;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-03-03;51.1;64.9;0.73;0.0;0.0;5.82;230;31.09;210;36.91;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-05;32.0;52.0;0.0;0.0;0.0;10.07;300;23.94;310;36.91;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-23;60.1;82.9;0.03;0.0;0.0;6.26;230;16.11;240;23.04;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-24;55.9;71.1;0.66;0.0;0.0;4.7;90;14.09;290;21.03;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-28;44.1;78.1;0.0;0.0;0.0;13.87;220;25.95;220;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-30;48.9;77.0;0.0;0.0;0.0;6.49;220;17.9;220;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-02;48.9;73.0;0.0;0.0;0.0;7.83;40;19.91;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-10;46.0;73.9;0.0;0.0;0.0;7.16;240;25.05;230;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-16;60.1;84.0;0.0;0.0;0.0;11.41;230;23.04;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-18;55.0;69.1;0.31;0.0;0.0;7.83;80;17.9;100;23.94;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-04-20;51.1;73.0;0.0;0.0;0.0;2.01;230;8.95;230;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-24;36.0;64.0;0.0;0.0;0.0;6.93;280;21.03;280;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-27;59.0;77.0;0.0;0.0;0.0;5.14;50;12.08;40;17.0;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-04;62.1;90.0;0.0;0.0;0.0;5.37;230;14.99;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-09;57.9;77.0;0.51;0.0;0.0;3.8;310;19.91;300;33.11;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-12;46.9;77.0;0.0;0.0;0.0;3.8;150;10.07;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-15;64.9;82.9;0.15;0.0;0.0;4.25;170;23.94;170;31.09;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-16;66.0;82.9;0.01;0.0;0.0;2.91;200;12.08;230;14.99;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-17;61.0;81.0;0.0;0.0;0.0;6.71;50;16.11;50;23.04;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-18;59.0;77.0;0.0;0.0;0.0;8.72;40;17.0;50;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-22;62.1;86.0;0.0;0.0;0.0;4.25;170;14.99;170;17.9;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-23;64.0;84.0;0.03;0.0;0.0;4.25;150;21.92;150;25.95;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-27;66.0;86.0;0.35;0.0;0.0;5.14;110;12.97;110;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-29;72.0;89.1;0.0;0.0;0.0;7.61;200;23.04;190;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-31;64.0;90.0;0.11;0.0;0.0;4.47;240;21.03;210;25.05;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-06-01;64.9;88.0;1.19;0.0;0.0;7.83;220;23.04;220;31.99;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-06-02;55.9;75.9;0.0;0.0;0.0;3.13;300;12.08;330;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-17;54.0;81.0;0.0;0.0;0.0;3.13;120;10.07;20;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-18;63.0;86.0;0.0;0.0;0.0;6.26;190;12.97;190;16.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-25;30.2;46.9;0.0;0.0;0.0;7.61;300;19.91;290;34.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-26;27.1;43.0;0.0;0.0;0.0;2.24;10;8.95;60;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-27;27.1;45.0;0.0;0.0;0.0;4.7;20;12.08;360;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-30;27.1;52.0;0.0;0.0;0.0;4.92;230;16.11;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-05;12.2;31.1;0.0;0.0;0.0;5.59;280;17.0;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-06;12.2;27.1;0.0;0.0;0.0;4.03;320;12.97;310;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-09;29.1;63.0;0.0;0.0;0.0;2.68;120;8.95;120;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-14;21.2;33.1;0.0;0.0;0.0;8.72;50;18.12;30;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-16;20.1;46.9;0.0;0.0;0.0;1.79;240;8.95;240;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-25;26.2;48.9;0.0;0.0;0.0;3.13;350;12.97;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-28;52.0;60.1;1.3;0.0;0.0;5.14;40;12.97;20;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-31;19.2;46.9;0.0;0.0;0.0;5.82;200;14.99;200;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-09;28.2;57.9;0.0;0.0;0.0;4.03;140;14.09;190;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-15;54.0;75.0;0.0;0.0;0.0;14.32;230;23.04;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-21;63.0;77.0;0.0;0.0;0.0;8.95;230;21.03;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-23;52.0;70.0;0.0;0.0;0.0;4.92;60;12.08;110;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-14;31.1;44.1;0.0;0.0;0.0;7.61;280;18.12;310;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-24;27.1;50.0;0.91;0.2;0.0;3.58;260;14.99;260;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-04-07;33.1;62.1;0.99;0.0;0.0;8.05;30;21.03;20;31.99;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2018-04-09;39.9;57.0;0.0;0.0;0.0;5.14;120;16.11;130;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-10;39.0;62.1;0.0;0.0;0.0;5.37;30;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-22;42.1;70.0;0.0;0.0;0.0;5.59;140;14.09;120;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-29;44.1;66.0;0.0;0.0;0.0;5.82;320;14.99;320;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-30;36.0;72.0;0.0;0.0;0.0;4.03;240;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-13;66.0;93.0;0.0;0.0;0.0;6.04;220;14.09;240;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-17;69.1;77.0;0.69;0.0;0.0;7.16;140;16.11;150;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-22;66.9;84.9;0.05;0.0;0.0;5.82;280;17.0;280;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-26;68.0;87.1;0.33;0.0;0.0;8.5;230;29.08;240;36.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-30;73.0;84.9;0.49;0.0;0.0;5.59;200;21.03;190;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-31;71.1;88.0;0.0;0.0;0.0;7.16;230;14.99;210;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-06;61.0;84.9;0.23;0.0;0.0;5.14;60;16.11;330;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-11;64.0;84.9;0.31;0.0;0.0;8.72;40;21.92;40;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-12;63.0;70.0;0.01;0.0;0.0;6.26;50;14.99;80;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-21;72.0;91.9;0.12;0.0;0.0;3.58;250;16.11;240;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-22;71.1;95.0;0.0;0.0;0.0;6.04;220;23.04;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-24;73.0;96.1;0.07;0.0;0.0;7.61;220;16.11;290;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-26;66.0;73.9;0.74;0.0;0.0;6.93;80;14.99;120;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-28;68.0;90.0;0.0;0.0;0.0;4.92;280;12.97;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-29;70.0;91.9;0.0;0.0;0.0;4.25;60;14.09;60;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-06;71.1;93.0;0.34;0.0;0.0;3.8;200;16.11;200;21.92;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2018-07-07;66.9;79.0;0.65;0.0;0.0;9.4;40;18.12;30;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-14;64.9;89.1;0.0;0.0;0.0;4.03;100;12.08;120;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-15;68.0;95.0;0.0;0.0;0.0;6.04;230;14.99;30;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-16;73.9;95.0;0.0;0.0;0.0;8.05;230;21.03;220;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-17;72.0;98.1;0.1;0.0;0.0;8.5;230;17.0;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-18;72.0;89.1;0.0;0.0;0.0;6.71;50;14.99;80;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-20;69.1;86.0;0.0;0.0;0.0;9.4;80;18.12;100;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-24;71.1;86.0;0.0;0.0;0.0;7.38;140;14.09;130;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-30;72.0;86.0;0.72;0.0;0.0;4.47;210;12.97;210;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-10;69.1;91.0;0.0;0.0;0.0;2.01;230;8.95;30;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-18;73.0;88.0;0.49;0.0;0.0;9.84;220;17.0;220;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-26;60.1;88.0;0.0;0.0;0.0;2.68;230;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-02;69.1;90.0;0.0;0.0;0.0;2.24;230;19.91;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-06;71.1;91.9;0.0;0.0;0.0;2.91;260;8.05;160;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-11;68.0;88.0;0.0;0.0;0.0;2.91;110;14.99;140;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-20;66.9;87.1;0.0;0.0;0.0;4.25;110;12.08;140;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-23;64.0;75.9;0.0;0.0;0.0;5.37;40;12.97;40;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-27;70.0;79.0;0.21;0.0;0.0;4.25;220;21.92;220;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-29;60.1;82.0;0.0;0.0;0.0;3.36;50;10.07;100;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-04;66.0;89.1;0.0;0.0;0.0;2.68;250;10.07;260;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-11;63.0;79.0;2.6;0.0;0.0;11.63;150;33.11;290;53.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-12;51.1;71.1;0.0;0.0;0.0;2.91;340;12.08;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-14;48.9;64.9;0.0;0.0;0.0;3.58;100;8.05;80;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-20;54.0;66.9;0.21;0.0;0.0;8.05;250;14.09;300;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-28;42.1;64.0;0.0;0.0;0.0;8.5;230;18.12;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-31;42.1;72.0;0.0;0.0;0.0;8.5;230;21.03;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-01;55.0;75.0;0.11;0.0;0.0;10.29;190;21.03;200;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-25;42.1;59.0;0.0;0.0;0.0;3.8;240;8.95;90;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-28;25.2;42.1;0.0;0.0;0.0;6.71;270;16.11;260;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-05;30.2;48.0;0.0;0.0;0.0;4.03;290;16.11;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-10;30.2;34.0;0.73;1.89;1.18;7.61;20;16.11;30;23.94;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2018-12-11;27.1;44.1;0.0;0.0;1.97;3.8;280;8.95;270;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-16;42.1;60.1;0.0;0.0;0.0;7.61;230;14.99;180;23.94;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-17;36.0;61.0;0.0;0.0;0.0;5.82;270;14.99;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-20;45.0;66.0;0.68;0.0;0.0;8.72;140;23.04;150;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-24;29.1;51.1;0.0;0.0;0.0;4.03;300;12.08;260;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-03;46.9;55.0;0.21;0.0;0.0;2.68;230;8.95;230;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-10;27.1;39.0;0.0;0.0;0.0;6.93;330;16.11;290;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-13;32.0;37.0;1.04;0.0;0.0;7.38;40;14.99;30;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-16;26.2;54.0;0.0;0.0;0.0;3.13;290;12.08;270;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-17;28.2;48.9;0.01;0.0;0.0;4.7;230;12.97;90;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-18;39.0;59.0;0.0;0.0;0.0;4.92;300;12.97;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-27;26.2;53.1;0.0;0.0;0.0;2.91;210;10.07;250;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-03;33.1;61.0;0.0;0.0;0.0;0.0;130;6.04;140;10.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-11;36.0;46.0;0.15;0.0;0.0;3.58;50;10.07;110;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-22;39.9;53.1;0.69;0.0;0.0;7.38;60;14.99;60;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-10;46.9;68.0;0.04;0.0;0.0;9.4;240;25.05;240;31.99;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-12;35.1;60.1;0.0;0.0;0.0;2.68;330;12.08;340;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-18;32.0;60.1;0.0;0.0;0.0;4.47;30;16.11;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-25;51.1;71.1;0.54;0.0;0.0;7.38;250;18.12;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-03-29;45.0;73.9;0.0;0.0;0.0;8.28;230;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-30;53.1;75.9;0.0;0.0;0.0;10.74;210;21.92;220;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-02;31.1;39.9;0.35;0.0;0.0;5.82;20;12.97;20;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-05;54.0;60.1;0.54;0.0;0.0;6.93;100;17.0;100;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-10;54.0;73.9;0.0;0.0;0.0;4.25;50;14.99;90;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-20;48.9;66.0;0.02;0.0;0.0;12.53;230;27.96;240;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-29;54.0;69.1;0.0;0.0;0.0;7.61;40;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-30;60.1;86.0;0.0;0.0;0.0;8.5;230;17.0;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-09;63.0;82.9;0.0;0.0;0.0;8.05;170;14.99;170;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-31;64.0;91.0;0.67;0.0;0.0;2.46;290;25.05;310;44.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-04;57.0;84.0;0.0;0.0;0.0;6.93;210;17.0;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-05;68.0;88.0;0.29;0.0;0.0;10.51;220;21.92;220;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-06;69.1;90.0;0.0;0.0;0.0;7.61;240;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-15;51.1;82.9;0.0;0.0;0.0;6.93;180;14.99;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-16;66.0;89.1;0.0;0.0;0.0;11.41;220;19.91;250;25.95;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-06-19;71.1;88.0;0.02;0.0;0.0;7.61;230;18.12;250;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-20;69.1;93.0;0.3;0.0;0.0;10.74;240;27.96;310;46.98;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-24;64.0;95.0;0.0;0.0;0.0;7.38;240;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-25;70.0;90.0;0.0;0.0;0.0;5.14;260;16.11;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-26;68.0;89.1;0.0;0.0;0.0;2.46;40;12.97;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-01;72.0;90.0;0.0;0.0;0.0;5.14;50;14.99;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-06;73.9;93.0;0.0;0.0;0.0;8.95;250;17.0;250;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-12;73.0;91.9;0.08;0.0;0.0;8.05;230;16.11;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-14;72.0;96.1;0.0;0.0;0.0;3.36;30;10.07;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-18;73.9;96.1;0.02;0.0;0.0;7.61;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-19;73.9;98.1;0.0;0.0;0.0;6.93;160;23.94;170;31.99;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-27;63.0;88.0;0.0;0.0;0.0;1.12;90;8.95;170;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-28;63.0;90.0;0.0;0.0;0.0;2.68;180;8.95;130;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-05;57.0;72.0;0.86;0.0;0.0;8.05;190;21.03;190;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-07;44.1;66.0;0.21;0.0;0.0;6.71;150;19.91;170;25.05;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-12;36.0;64.9;0.0;0.0;0.0;3.58;220;14.99;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-22;33.1;41.0;0.08;0.0;0.0;2.01;230;8.05;10;12.08;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-01-28;30.9;57.9;0.0;0.0;0.0;8.95;310;17.0;300;29.08;No;No;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2007-01-29;19.9;37.0;0.0;0.0;0.0;6.93;300;17.0;310;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-31;25.0;39.9;0.0;0.0;0.0;5.37;20;12.97;350;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-02;34.0;45.0;0.0;0.0;0.0;5.59;230;12.97;240;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-02-04;25.0;50.0;0.0;0.0;0.0;10.51;230;27.96;240;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-07;35.1;52.0;0.0;0.0;0.0;8.05;220;16.11;350;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-12;26.1;64.0;0.0;0.0;0.0;4.03;220;19.91;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-19;19.0;50.0;0.0;0.0;0.0;6.93;200;17.9;200;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-23;37.0;55.0;0.0;0.0;0.0;7.61;290;17.9;260;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-28;37.9;61.0;0.0;0.0;0.0;4.92;90;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-02;46.9;68.0;0.96;0.0;0.0;12.97;190;38.03;150;57.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-03;41.0;69.1;0.0;0.0;0.0;11.41;230;25.95;240;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-06;37.9;55.0;0.0;0.0;0.0;6.04;10;12.97;20;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-09;30.9;59.0;0.0;0.0;0.0;5.37;150;14.09;160;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-12;37.9;66.9;0.0;0.0;0.0;3.8;60;12.97;60;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-23;53.1;82.9;0.0;0.0;0.0;7.83;230;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-26;44.1;73.9;0.0;0.0;0.0;6.04;230;16.11;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-27;59.0;87.1;0.04;0.0;0.0;5.14;230;14.09;10;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-04-03;53.1;86.0;0.0;0.0;0.0;4.03;180;16.11;170;21.03;Yes;No;Yes;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-04-04;55.9;82.0;0.0;0.0;0.0;9.62;280;17.9;280;27.96;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-04-10;32.0;64.0;0.0;0.0;0.0;2.01;80;12.97;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-14;48.9;70.0;0.01;0.0;0.0;9.17;160;17.0;150;21.03;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-15;42.1;77.0;1.76;0.0;0.0;12.75;180;25.05;300;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-04-25;61.0;87.1;0.0;0.0;0.0;10.29;230;23.94;230;29.97;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-05-04;53.1;57.0;0.08;0.0;0.0;6.49;50;14.09;40;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-05-12;66.0;82.0;0.96;0.0;0.0;5.14;40;12.97;30;14.99;Yes;Yes;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-05-24;53.1;82.0;0.0;0.0;0.0;4.7;60;12.08;110;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-28;61.0;91.0;0.0;0.0;0.0;7.61;220;16.11;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-29;62.1;91.9;0.0;0.0;0.0;4.7;80;12.08;80;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-13;64.0;79.0;0.18;0.0;0.0;3.8;30;14.09;20;17.9;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-06-15;59.0;75.0;0.01;0.0;0.0;4.25;90;12.97;120;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-19;70.0;97.0;0.38;0.0;0.0;7.16;230;27.96;230;38.03;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-06-29;71.1;93.0;0.18;0.0;0.0;7.83;230;19.91;230;25.05;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-07-07;68.0;93.9;0.0;0.0;0.0;4.47;140;17.9;140;23.04;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-08;70.0;95.0;0.0;0.0;0.0;5.82;230;17.9;230;21.92;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-09;71.1;98.1;0.0;0.0;0.0;6.93;200;21.03;220;25.05;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-13;64.0;81.0;0.0;0.0;0.0;2.91;50;8.95;110;12.97;Yes;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-20;72.0;88.0;0.0;0.0;0.0;5.82;360;14.09;360;19.91;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-21;62.1;84.0;0.0;0.0;0.0;6.71;40;17.0;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-24;64.0;88.0;0.0;0.0;0.0;3.8;230;14.09;360;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-07-28;69.1;90.0;0.57;0.0;0.0;4.7;230;38.03;220;53.02;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-07-31;70.0;89.1;0.0;0.0;0.0;6.26;40;14.99;50;17.0;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-03;71.1;93.0;0.0;0.0;0.0;5.14;180;12.97;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-06;73.9;97.0;0.0;0.0;0.0;2.46;90;12.08;150;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-08;75.9;102.0;0.17;0.0;0.0;4.47;200;16.11;220;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-16;75.9;100.9;0.0;0.0;0.0;11.63;210;17.9;210;23.04;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-17;73.9;97.0;0.01;0.0;0.0;6.71;30;21.03;40;27.96;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-19;70.0;97.0;0.0;0.0;0.0;9.84;220;17.0;210;21.03;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-21;73.9;105.1;0.06;0.0;0.0;8.28;300;23.94;280;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-08-23;75.0;90.0;0.53;0.0;0.0;5.82;130;12.08;130;19.91;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-31;68.0;91.0;0.0;0.0;0.0;5.37;100;14.09;80;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-02;61.0;88.0;0.0;0.0;0.0;7.61;90;16.11;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-08;64.9;93.0;0.0;0.0;0.0;4.47;50;14.09;120;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-10;66.9;100.9;0.0;0.0;0.0;7.16;210;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-22;69.1;91.0;0.0;0.0;0.0;2.24;20;8.95;20;12.97;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-25;59.0;89.1;0.0;0.0;0.0;4.47;190;10.07;160;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-01;53.1;82.0;0.0;0.0;0.0;6.71;80;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-03;63.0;84.9;0.0;0.0;0.0;3.36;70;10.07;90;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-05;68.0;78.1;0.13;0.0;0.0;5.82;50;10.07;110;16.11;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-07;64.0;90.0;0.0;0.0;0.0;1.79;170;8.05;160;10.07;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-19;70.0;84.0;0.09;0.0;0.0;10.51;230;19.91;210;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-21;45.0;81.0;0.0;0.0;0.0;2.91;200;14.09;190;16.11;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-23;64.0;82.9;0.0;0.0;0.0;8.95;190;16.11;180;21.92;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-26;60.1;71.1;2.19;0.0;0.0;6.26;160;12.97;170;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-10-28;44.1;64.9;0.0;0.0;0.0;5.82;50;16.11;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-05;36.0;68.0;0.0;0.0;0.0;5.59;220;17.0;210;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-10;35.1;57.9;0.0;0.0;0.0;4.7;40;16.11;40;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-14;48.9;78.1;0.0;0.0;0.0;6.04;210;16.11;210;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-11-22;51.1;77.0;0.0;0.0;0.0;14.54;230;29.08;220;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-27;39.0;64.0;0.0;0.0;0.0;5.59;320;14.09;310;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-28;32.0;57.0;0.0;0.0;0.0;4.47;120;14.99;90;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-03;34.0;62.1;0.04;0.0;0.0;10.74;280;23.94;280;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-07;25.0;52.0;0.0;0.0;0.0;3.36;230;12.08;230;14.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-18;21.0;46.0;0.0;0.0;0.0;1.12;170;6.93;200;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-22;43.0;50.0;0.0;0.0;0.0;7.61;40;14.09;20;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-25;30.9;54.0;0.0;0.0;0.0;4.47;40;12.97;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-07;43.0;72.0;0.0;0.0;0.0;6.26;240;14.99;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-12;41.0;57.9;0.0;0.0;0.0;6.71;40;14.99;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-13;39.0;46.9;0.0;0.0;0.0;5.82;50;12.97;40;14.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-16;21.0;46.0;0.0;0.0;0.0;2.68;50;10.07;40;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-21;15.1;37.0;0.0;0.0;0.0;4.92;40;10.07;40;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-22;24.1;42.1;0.15;0.0;0.0;3.58;220;10.07;210;12.08;Yes;No;Yes;Yes;No;No;Yes;No;No;Yes;No;No;No;No;No;No;No
2008-02-04;41.0;71.1;0.0;0.0;0.0;4.47;230;14.99;230;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-15;33.1;61.0;0.0;0.0;0.0;7.83;220;12.97;220;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-16;41.0;57.9;0.0;0.0;0.0;7.16;130;17.0;130;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-17;37.0;64.9;0.0;0.0;0.0;8.72;170;23.04;170;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-21;30.0;43.0;0.01;0.0;0.0;9.17;50;16.11;30;21.92;No;No;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2008-02-23;42.1;62.1;0.02;0.0;0.0;6.04;40;14.99;20;19.91;Yes;Yes;No;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2008-02-27;28.9;48.9;0.0;0.0;0.0;10.29;300;17.9;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-05;44.1;64.0;0.0;0.0;0.0;8.5;230;23.94;240;31.99;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-03-08;35.1;66.0;0.2;0.0;0.0;16.55;240;40.94;230;51.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-03-19;57.0;75.0;0.08;0.0;0.0;18.12;220;33.11;230;38.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-03-20;41.0;66.0;0.0;0.0;0.0;10.51;220;25.05;230;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-26;41.0;73.0;0.0;0.0;0.0;13.42;220;21.92;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-30;41.0;45.0;0.36;0.0;0.0;9.17;60;16.11;50;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2008-03-31;44.1;60.1;0.98;0.0;0.0;4.7;180;14.99;180;19.91;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-04-01;60.1;77.0;0.02;0.0;0.0;13.42;240;25.95;230;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-04-05;60.1;64.9;0.25;0.0;0.0;6.49;90;14.99;90;17.9;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-04-11;57.0;82.9;0.0;0.0;0.0;11.86;230;21.92;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-14;37.0;55.0;0.0;0.0;0.0;3.8;50;14.99;50;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-03;60.1;80.1;0.0;0.0;0.0;13.42;220;23.04;230;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-04;60.1;82.0;0.0;0.0;0.0;5.14;220;12.97;30;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-06;54.0;79.0;0.0;0.0;0.0;2.68;40;14.09;30;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-13;44.1;71.1;0.0;0.0;0.0;4.7;40;17.0;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-25;52.0;80.1;0.0;0.0;0.0;2.68;210;12.08;210;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-29;55.0;78.1;0.0;0.0;0.0;3.8;140;8.95;80;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-02;61.0;84.0;0.0;0.0;0.0;4.03;50;14.09;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-06;75.9;99.0;0.0;0.0;0.0;6.49;230;14.99;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-08;73.0;100.9;0.0;0.0;0.0;4.03;230;14.09;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-13;68.0;93.0;0.0;0.0;0.0;5.14;140;14.99;140;21.03;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-06-19;55.9;88.0;0.0;0.0;0.0;3.8;220;14.99;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-02;55.9;88.0;0.0;0.0;0.0;3.36;230;14.99;220;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-04;69.1;95.0;0.62;0.0;0.0;9.4;240;25.05;240;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-07-05;69.1;87.1;0.86;0.0;0.0;5.14;270;17.9;280;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-07-23;70.0;90.0;0.11;0.0;0.0;4.25;190;23.04;210;29.08;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-07-27;72.0;91.0;0.09;0.0;0.0;6.71;230;25.95;240;36.01;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2008-07-31;73.0;95.0;0.05;0.0;0.0;3.13;350;17.9;20;27.96;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-08-10;66.0;88.0;0.12;0.0;0.0;5.82;220;21.92;210;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-08-21;70.0;88.0;0.0;0.0;0.0;9.17;100;16.11;100;23.04;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-24;66.9;91.0;0.0;0.0;0.0;3.36;170;10.07;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-16;63.0;73.9;1.38;0.0;0.0;8.05;30;17.0;20;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2008-09-19;55.9;75.9;0.0;0.0;0.0;9.17;50;17.9;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-21;57.0;75.0;0.0;0.0;0.0;4.25;50;10.07;60;14.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-03;46.9;75.0;0.0;0.0;0.0;2.68;250;14.09;250;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-06;53.1;82.0;0.0;0.0;0.0;3.8;190;12.08;80;14.99;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-13;52.0;79.0;0.0;0.0;0.0;1.57;30;6.93;360;8.95;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2008-10-17;53.1;70.0;0.26;0.0;0.0;7.83;50;17.0;30;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-10-21;42.1;73.9;0.0;0.0;0.0;6.26;300;12.97;260;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-30;28.0;60.1;0.0;0.0;0.0;2.68;40;12.08;30;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-02;37.9;75.0;0.0;0.0;0.0;4.7;70;14.09;80;16.11;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-06;46.9;77.0;0.0;0.0;0.0;3.13;290;12.97;280;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-11;33.1;57.0;0.0;0.0;0.0;4.25;90;12.97;80;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-14;55.0;64.0;0.81;0.0;0.0;3.13;160;12.97;150;16.11;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2008-11-16;36.0;55.9;0.0;0.0;0.0;6.26;270;19.91;260;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-23;26.1;55.0;0.0;0.0;0.0;2.68;230;12.08;230;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-02;28.0;48.9;0.0;0.0;0.0;;290;10.07;280;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-03;25.0;54.0;0.0;0.0;0.0;4.03;200;12.08;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-06;26.1;46.9;0.06;0.0;0.0;2.01;230;8.05;160;12.08;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2008-12-12;36.0;57.9;0.09;0.0;0.0;8.95;310;17.0;320;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-15;54.0;70.0;0.0;0.0;0.0;8.28;190;21.92;190;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-31;28.9;57.0;0.0;0.0;0.0;10.96;310;23.94;280;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-01;23.0;42.1;0.0;0.0;0.0;3.8;50;12.08;40;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-05;53.1;60.1;0.0;0.0;0.0;5.82;240;14.09;240;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-09;27.0;50.0;0.0;0.0;0.0;3.58;290;12.08;250;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-11;39.9;57.9;0.06;0.0;0.0;6.26;220;23.04;230;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-01-16;15.1;28.0;0.0;0.0;0.0;4.47;300;12.97;310;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-03;32.0;46.0;0.15;0.0;0.0;7.61;290;16.11;30;21.92;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;Yes;No;No;No
2009-02-20;27.0;43.0;0.0;0.0;0.0;7.38;280;17.9;290;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-21;21.9;54.0;0.0;0.0;0.0;5.37;200;17.0;200;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-23;28.0;44.1;0.0;0.0;0.0;7.38;300;17.0;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-05;28.9;61.0;0.0;0.0;0.0;8.28;220;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-10;46.9;69.1;0.0;0.0;0.0;8.5;100;17.9;90;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-11;61.0;82.9;0.0;0.0;0.0;9.84;240;17.9;230;23.04;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-03-12;46.9;62.1;0.0;0.0;0.0;8.95;40;16.11;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-13;39.0;46.9;0.53;0.0;0.0;8.72;60;16.11;40;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-03-15;43.0;48.9;0.87;0.0;0.0;2.46;110;8.95;110;10.07;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-03-20;41.0;60.1;0.0;0.0;0.0;6.93;40;14.09;40;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-28;62.1;70.0;0.91;0.0;0.0;5.37;120;29.08;120;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2009-03-31;39.0;69.1;0.0;0.0;0.0;5.82;140;12.97;140;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-01;53.1;70.0;0.01;0.0;0.0;6.49;180;14.09;200;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-04-03;55.0;78.1;0.06;0.0;0.0;15.21;230;34.9;230;42.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-04-04;46.9;73.9;0.0;0.0;0.0;6.04;260;16.11;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-08;32.0;61.0;0.0;0.0;0.0;10.51;220;25.05;220;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-11;51.1;72.0;0.0;0.0;0.0;9.17;300;17.9;310;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-13;45.0;63.0;0.0;0.0;0.0;6.26;140;17.0;130;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-16;43.0;68.0;0.0;0.0;0.0;9.4;40;19.91;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-23;41.0;80.1;0.0;0.0;0.0;5.37;280;19.91;280;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-29;57.9;82.9;0.0;0.0;0.0;8.28;90;17.0;90;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-01;66.9;82.0;0.07;0.0;0.0;12.97;230;23.94;250;29.08;Yes;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-05-02;66.0;84.0;0.0;0.0;0.0;9.84;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-03;64.0;86.0;0.0;0.0;0.0;11.18;230;25.95;220;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-17;52.0;73.0;0.29;0.0;0.0;8.95;30;17.9;40;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-31;64.9;88.0;0.0;0.0;0.0;4.92;310;14.99;300;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-04;68.0;90.0;0.76;0.0;0.0;7.38;210;17.0;230;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-06;63.0;75.9;0.0;0.0;0.0;5.82;50;14.09;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-07;62.1;86.0;0.0;0.0;0.0;3.13;140;8.95;140;12.08;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-06-10;64.9;84.9;0.07;0.0;0.0;4.7;160;12.97;140;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-06-15;68.0;84.9;0.04;0.0;0.0;5.59;50;17.9;50;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2009-06-16;66.0;73.0;0.42;0.0;0.0;6.49;110;14.99;100;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-18;71.1;91.0;0.03;0.0;0.0;6.26;240;12.97;230;17.0;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-06-21;72.0;90.0;0.0;0.0;0.0;7.38;290;17.0;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-22;68.0;88.0;0.0;0.0;0.0;3.8;350;14.09;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-06-23;68.0;89.1;0.02;0.0;0.0;5.37;40;14.09;30;16.11;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-24;68.0;91.0;0.0;0.0;0.0;3.58;40;12.08;330;14.99;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-07-02;66.9;91.9;0.02;0.0;0.0;4.92;230;14.99;230;19.91;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-03;64.9;87.1;0.0;0.0;0.0;4.25;270;14.09;260;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-07-04;60.1;90.0;0.0;0.0;0.0;4.03;240;14.09;230;17.9;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-07-11;66.9;91.0;0.03;0.0;0.0;7.61;230;17.9;240;23.94;Yes;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-07-13;69.1;82.0;0.63;0.0;0.0;3.36;240;19.91;250;25.95;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2009-07-17;73.0;97.0;0.27;0.0;0.0;8.05;220;21.92;270;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-07-24;71.1;91.9;0.34;0.0;0.0;3.36;190;12.08;270;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2009-07-27;73.0;93.9;0.0;0.0;0.0;7.83;240;21.92;230;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-08-06;70.0;84.9;0.23;0.0;0.0;2.68;40;12.08;30;17.9;Yes;No;No;Yes;No;No;No;Yes;No;No;Yes;Yes;No;No;No;No;No
2009-08-11;73.0;99.0;0.0;0.0;0.0;4.92;320;17.9;310;27.96;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-08-14;71.1;84.9;0.0;0.0;0.0;5.59;100;14.99;100;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-25;68.0;88.0;0.0;0.0;0.0;3.36;100;12.08;70;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-08-26;66.9;95.0;0.0;0.0;0.0;3.36;260;12.97;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-29;71.1;91.9;0.0;0.0;0.0;5.14;230;17.9;230;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-08-30;69.1;86.0;0.01;0.0;0.0;2.68;40;12.08;40;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-09-04;57.9;87.1;0.0;0.0;0.0;2.91;50;12.08;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-15;62.1;91.0;0.0;0.0;0.0;4.03;240;12.08;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-22;64.0;81.0;1.45;0.0;0.0;4.25;90;12.97;90;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-09-23;71.1;82.9;0.25;0.0;0.0;2.24;150;12.97;150;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-09-25;62.1;77.0;0.02;0.0;0.0;6.26;50;19.91;50;25.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2015-03-29;22.1;52.0;0.0;0.0;0.0;4.7;240;14.09;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-01;46.9;66.0;0.0;0.0;0.0;6.71;40;16.11;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-02;39.0;73.9;0.0;0.0;0.0;10.07;220;21.03;210;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-03;61.0;82.9;0.0;0.0;0.0;16.33;230;29.97;230;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-14;61.0;79.0;1.23;0.0;0.0;6.04;40;17.0;30;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-04-19;63.0;73.0;0.76;0.0;0.0;8.5;120;19.91;100;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-02;46.0;73.0;0.0;0.0;0.0;2.91;40;12.97;50;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-09;64.9;84.9;0.03;0.0;0.0;9.4;80;21.03;70;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-15;55.0;77.0;0.0;0.0;0.0;5.37;170;10.07;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-20;62.1;88.0;0.0;0.0;0.0;4.03;120;14.09;120;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-21;57.0;71.1;0.24;0.0;0.0;6.49;120;17.0;110;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-05-24;54.0;82.9;0.0;0.0;0.0;4.7;200;12.08;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-29;66.0;87.1;0.0;0.0;0.0;4.03;140;14.09;140;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-01;68.0;90.0;0.08;0.0;0.0;6.93;220;25.95;220;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-11;70.0;93.0;0.08;0.0;0.0;6.49;220;16.11;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-16;73.0;100.0;0.0;0.0;0.0;4.03;50;14.99;340;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-20;71.1;96.1;0.01;0.0;0.0;9.4;220;36.01;220;51.0;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-26;69.1;91.9;1.26;0.0;0.0;4.7;250;29.08;240;42.95;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2015-07-03;69.1;78.1;0.14;0.0;0.0;4.03;250;12.08;250;14.99;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-07-06;70.0;89.1;0.0;0.0;0.0;8.05;230;17.0;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-09;72.0;93.9;0.0;0.0;0.0;5.82;230;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-13;71.1;88.0;0.65;0.0;0.0;6.49;230;23.94;210;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-14;70.0;88.0;0.0;0.0;0.0;9.62;230;18.12;250;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-19;72.0;93.0;1.57;0.0;0.0;5.14;20;23.94;20;36.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-20;72.0;93.0;0.0;0.0;0.0;4.47;200;16.11;180;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-21;73.0;93.0;0.78;0.0;0.0;6.04;280;31.99;280;44.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-23;72.0;82.0;0.76;0.0;0.0;5.59;40;21.92;290;29.08;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2015-07-24;68.0;86.0;0.0;0.0;0.0;5.14;50;16.11;40;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-29;75.0;91.0;0.0;0.0;0.0;4.47;140;8.95;170;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-31;71.1;91.0;0.0;0.0;0.0;3.8;40;12.97;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-01;64.9;93.0;0.0;0.0;0.0;1.57;240;12.97;270;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-07;70.0;75.0;0.02;0.0;0.0;5.82;40;12.08;10;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-08;66.0;84.9;0.0;0.0;0.0;7.38;40;17.0;50;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-10;71.1;84.9;0.0;0.0;0.0;7.38;170;14.09;160;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-20;72.0;90.0;0.0;0.0;0.0;4.25;240;10.07;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-22;66.0;87.1;0.0;0.0;0.0;4.7;60;12.97;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-24;72.0;91.9;0.89;0.0;0.0;3.58;250;17.0;180;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-08-26;69.1;82.0;0.0;0.0;0.0;6.26;40;12.97;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-30;63.0;86.0;0.0;0.0;0.0;2.46;200;10.07;210;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-01;66.9;91.0;0.0;0.0;0.0;1.12;40;8.05;40;12.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-06;66.0;81.0;0.0;0.0;0.0;6.04;40;14.09;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-07;71.1;87.1;0.0;0.0;0.0;4.03;130;12.08;150;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-08;70.0;89.1;0.04;0.0;0.0;2.01;200;10.07;120;14.99;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-14;48.0;78.1;0.0;0.0;0.0;1.12;230;12.08;260;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-15;50.0;82.0;0.0;0.0;0.0;2.01;40;12.08;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-19;62.1;87.1;0.0;0.0;0.0;1.57;80;10.07;80;12.97;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-21;64.9;79.0;0.0;0.0;0.0;6.26;90;12.08;100;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-08;57.0;82.9;0.0;0.0;0.0;2.24;250;10.07;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-09;60.1;82.0;0.0;0.0;0.0;8.5;240;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-11;52.0;72.0;0.0;0.0;0.0;4.47;50;12.97;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-14;52.0;77.0;0.0;0.0;0.0;2.46;240;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-18;33.1;57.9;0.0;0.0;0.0;3.36;330;12.08;320;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-24;51.1;71.1;0.0;0.0;0.0;4.25;90;10.07;80;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-27;50.0;63.0;0.47;0.0;0.0;10.51;100;19.91;90;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-29;57.0;73.9;0.05;0.0;0.0;6.71;250;12.97;300;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-03;59.0;64.9;0.53;0.0;0.0;4.92;40;10.07;50;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-05;63.0;73.9;0.0;0.0;0.0;2.46;220;6.93;150;12.97;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-11-09;46.9;55.0;1.45;0.0;0.0;8.05;40;16.11;30;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-11;46.0;68.0;0.0;0.0;0.0;2.01;290;8.05;310;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-19;55.9;73.0;1.86;0.0;0.0;6.49;150;17.0;160;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-11-21;32.0;60.1;0.0;0.0;0.0;1.34;80;10.07;80;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-23;29.1;46.9;0.0;0.0;0.0;2.01;280;10.07;330;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-30;45.0;60.1;0.74;0.0;0.0;6.93;50;14.09;60;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-12;53.1;75.0;0.0;0.0;0.0;4.47;230;12.08;230;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-27;64.0;75.9;0.0;0.0;0.0;9.4;230;21.92;230;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-29;53.1;73.9;0.1;0.0;0.0;4.25;220;17.0;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-01;43.0;51.1;0.0;0.0;0.0;2.68;350;8.95;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-16;42.1;61.0;0.0;0.0;0.0;6.93;230;14.09;330;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-05;29.1;46.9;0.01;0.0;0.0;5.14;360;14.99;320;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-17;37.9;57.0;0.0;0.0;0.0;2.46;40;14.99;40;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-25;39.9;55.0;0.0;0.0;0.0;14.09;240;29.97;250;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-27;24.3;52.0;0.0;0.0;0.0;3.8;240;16.11;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-29;46.0;73.0;0.0;0.0;0.0;9.17;240;21.03;280;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-02;35.1;64.0;0.1;0.0;0.0;8.5;230;25.05;230;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-08;46.9;78.1;0.0;0.0;0.0;7.16;230;16.11;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-09;51.1;78.1;0.0;0.0;0.0;11.18;240;21.03;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-19;43.0;60.1;0.03;0.0;0.0;7.61;40;19.91;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-24;54.0;78.1;0.0;0.0;0.0;14.09;220;27.96;210;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-28;54.0;75.0;0.08;0.0;0.0;6.71;300;19.91;290;29.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-29;45.0;66.9;0.0;0.0;0.0;3.36;30;12.97;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-31;55.0;77.0;0.0;0.0;0.0;11.41;220;21.92;220;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-03;44.1;62.1;0.0;0.0;0.0;7.61;290;17.0;250;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-14;37.9;66.0;0.0;0.0;0.0;8.05;40;16.11;80;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-17;37.0;72.0;0.0;0.0;0.0;4.25;40;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-18;42.1;84.0;0.0;0.0;0.0;2.68;230;8.95;230;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-19;53.1;88.0;0.0;0.0;0.0;3.8;290;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-25;53.1;81.0;0.0;0.0;0.0;10.74;230;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-27;64.0;87.1;0.52;0.0;0.0;7.83;230;17.0;230;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-04-29;60.1;78.1;0.0;0.0;0.0;5.82;30;12.97;120;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-05;48.9;61.0;0.68;0.0;0.0;4.7;340;12.08;340;21.92;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-10;64.9;84.0;0.0;0.0;0.0;5.37;190;14.09;120;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-12;64.0;81.0;0.56;0.0;0.0;3.58;270;16.11;300;23.94;Yes;Yes;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-05-16;42.1;73.0;0.0;0.0;0.0;2.46;230;12.97;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-24;50.0;82.9;0.0;0.0;0.0;4.47;230;14.09;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-27;68.0;88.0;0.0;0.0;0.0;7.38;240;12.97;210;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-02;70.0;88.0;0.0;0.0;0.0;0.89;130;8.05;130;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-04;69.1;91.9;0.61;0.0;0.0;4.25;300;17.0;300;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-08;57.9;81.0;0.0;0.0;0.0;4.92;290;17.0;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-11;69.1;91.9;0.0;0.0;0.0;8.05;240;16.11;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-14;59.0;90.0;0.0;0.0;0.0;4.03;80;12.08;80;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-19;55.9;84.0;0.0;0.0;0.0;2.24;70;12.97;110;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-30;69.1;88.0;0.01;0.0;0.0;4.03;170;14.99;180;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-06;72.0;91.0;0.0;0.0;0.0;6.04;250;17.0;20;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-08;71.1;93.9;0.25;0.0;0.0;6.04;20;21.92;20;36.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-10;69.1;88.0;0.0;0.0;0.0;2.01;290;14.09;300;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-12;70.0;91.0;0.37;0.0;0.0;3.13;280;19.91;240;29.97;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-14;73.0;95.0;0.0;0.0;0.0;3.36;200;12.08;210;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-22;73.0;93.0;0.0;0.0;0.0;7.83;180;14.99;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-30;73.9;95.0;0.03;0.0;0.0;4.92;230;17.0;230;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-08-03;73.0;88.0;0.0;0.0;0.0;8.72;90;14.99;80;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-04;69.1;87.1;1.02;0.0;0.0;6.71;210;12.08;70;16.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-12;75.9;93.9;0.0;0.0;0.0;6.04;220;14.09;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-16;75.0;95.0;0.0;0.0;0.0;7.61;240;14.09;170;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-22;66.9;87.1;0.0;0.0;0.0;2.91;40;12.08;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-24;64.0;87.1;0.0;0.0;0.0;3.13;120;8.95;130;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-27;75.0;98.1;0.18;0.0;0.0;4.92;120;19.91;120;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-10;73.9;91.9;0.0;0.0;0.0;8.05;170;14.99;180;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-23;66.9;84.9;0.0;0.0;0.0;4.47;40;10.07;350;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-24;64.0;91.9;0.0;0.0;0.0;1.34;40;12.97;80;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-25;69.1;73.9;0.0;0.0;0.0;6.71;90;12.97;130;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-09;52.0;73.0;0.13;0.0;0.0;7.38;360;17.0;310;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-16;51.1;78.1;0.0;0.0;0.0;0.22;170;8.05;160;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-17;57.0;82.0;0.0;0.0;0.0;4.7;230;12.97;220;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-24;46.9;78.1;0.0;0.0;0.0;5.59;260;14.99;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-03;55.9;82.9;0.01;0.0;0.0;5.14;240;12.97;240;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-08;33.1;66.9;0.0;0.0;0.0;2.91;230;8.05;240;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-14;44.1;54.0;0.27;0.0;0.0;4.47;80;12.08;90;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-17;37.0;69.1;0.0;0.0;0.0;0.67;360;8.05;230;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-22;27.1;57.9;0.0;0.0;0.0;2.46;320;10.07;320;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-03;33.1;54.0;0.0;0.0;0.0;2.91;40;12.97;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-05;42.1;59.0;0.41;0.0;0.0;4.47;40;14.09;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-08;37.9;52.0;0.0;0.0;0.0;4.25;330;14.09;310;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-10;20.1;45.0;0.0;0.0;0.0;1.79;250;10.07;310;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-11;23.2;46.0;0.0;0.0;0.0;2.91;160;8.95;140;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-14;34.0;52.0;0.0;0.0;0.0;3.58;30;10.07;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-15;24.3;41.0;0.0;0.0;0.0;6.49;320;16.11;300;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-17;28.2;48.9;0.01;0.0;0.0;6.49;220;14.99;220;19.01;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2016-12-19;34.0;46.9;0.21;0.0;0.0;9.62;40;17.0;40;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-20;29.1;45.0;0.0;0.0;0.0;4.47;40;12.97;30;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-22;37.9;66.0;0.0;0.0;0.0;7.38;230;14.99;240;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-30;28.2;48.0;0.0;0.0;0.0;8.28;280;21.03;280;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-01;41.0;50.0;0.54;0.0;0.0;6.49;230;17.0;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-11;39.9;57.0;0.0;0.0;0.0;6.04;210;12.97;200;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-13;50.0;75.9;0.01;0.0;0.0;7.38;90;18.12;100;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-18;45.0;70.0;0.0;0.0;0.0;6.49;300;17.0;360;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-20;46.0;59.0;0.09;0.0;0.0;2.91;140;8.95;120;12.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-03;34.0;48.9;0.06;0.0;0.0;4.7;60;12.08;340;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-07;48.9;75.9;0.0;0.0;0.0;12.53;210;21.03;210;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-16;32.0;53.1;0.0;0.0;0.0;6.71;270;21.03;270;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-07;48.9;73.9;0.0;0.0;0.0;13.87;230;23.04;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-13;26.2;42.1;0.56;0.0;0.0;8.28;80;18.12;40;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-21;50.0;82.0;0.2;0.0;0.0;5.82;250;14.99;270;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-03-26;52.0;77.0;0.0;0.0;0.0;6.93;180;16.11;210;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-27;59.0;79.0;0.06;0.0;0.0;9.17;230;18.12;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-04;63.0;82.0;0.0;0.0;0.0;12.97;240;23.94;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-06;50.0;70.0;0.09;0.0;0.0;15.21;230;44.07;240;52.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-04-10;48.9;78.1;0.0;0.0;0.0;9.62;230;18.12;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-18;61.0;73.9;0.03;0.0;0.0;9.62;90;18.12;110;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-21;63.0;89.1;0.21;0.0;0.0;6.93;230;18.12;230;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-27;62.1;82.0;0.0;0.0;0.0;10.51;220;19.91;210;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-28;69.1;88.0;0.0;0.0;0.0;9.17;220;17.0;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-29;72.0;89.1;0.0;0.0;0.0;10.07;230;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-30;70.0;86.0;0.02;0.0;0.0;10.51;250;19.91;250;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-09;53.1;82.9;0.0;0.0;0.0;4.03;250;12.97;260;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-24;71.1;91.0;0.46;0.0;0.0;7.83;240;25.05;210;33.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-06;68.0;93.0;0.0;0.0;0.0;5.82;250;14.99;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-17;71.1;90.0;0.02;0.0;0.0;4.47;200;12.08;190;16.11;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-07-22;75.9;100.9;0.0;0.0;0.0;10.74;220;19.91;240;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-28;75.0;93.9;0.21;0.0;0.0;7.61;190;19.91;190;25.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-01;60.1;88.0;0.0;0.0;0.0;2.91;50;12.08;90;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-03;68.0;93.9;0.0;0.0;0.0;3.8;170;14.09;160;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-04;68.0;91.9;0.0;0.0;0.0;7.16;230;17.0;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-07;73.9;91.9;0.04;0.0;0.0;10.96;220;25.05;210;34.0;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-08;68.0;78.1;1.5;0.0;0.0;5.82;230;21.03;230;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-16;73.9;91.9;0.0;0.0;0.0;4.03;50;10.07;110;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-19;73.0;91.9;0.05;0.0;0.0;2.91;20;10.07;30;14.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-30;59.0;84.0;0.0;0.0;0.0;1.79;170;10.07;220;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-31;69.1;87.1;0.01;0.0;0.0;7.16;240;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-05;64.0;90.0;0.06;0.0;0.0;8.05;240;21.92;230;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-09-08;51.1;77.0;0.0;0.0;0.0;2.68;40;12.97;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-12;63.0;79.0;0.63;0.0;0.0;10.74;80;18.12;80;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-13;61.0;84.0;0.0;0.0;0.0;6.71;230;14.99;230;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-14;64.0;82.9;0.0;0.0;0.0;6.04;230;14.99;240;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-18;64.9;82.9;0.0;0.0;0.0;6.71;40;17.0;50;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-19;64.0;84.9;0.0;0.0;0.0;4.25;20;10.07;360;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-20;62.1;91.0;0.0;0.0;0.0;3.58;280;14.09;280;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-22;61.0;89.1;0.0;0.0;0.0;2.24;40;12.97;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-23;61.0;87.1;0.0;0.0;0.0;4.47;80;14.09;50;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-27;68.0;91.0;0.0;0.0;0.0;5.59;30;17.0;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-04;50.0;82.0;0.0;0.0;0.0;2.24;230;8.95;170;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-05;54.0;84.9;0.0;0.0;0.0;3.13;170;12.08;170;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-06;55.0;86.0;0.0;0.0;0.0;2.91;150;12.08;230;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-09;73.9;91.9;0.09;0.0;0.0;11.86;230;25.95;240;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-10;75.0;90.0;0.0;0.0;0.0;6.71;250;12.97;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-15;62.1;82.9;0.0;0.0;0.0;9.84;230;19.91;230;25.05;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-27;37.9;73.0;0.0;0.0;0.0;5.82;170;14.09;170;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-29;41.0;68.0;0.78;0.0;0.0;7.61;290;21.03;290;31.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-02;55.0;78.1;0.0;0.0;0.0;2.01;240;10.07;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-03;52.0;81.0;0.0;0.0;0.0;2.01;230;12.97;230;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-08;43.0;45.0;0.13;0.0;0.0;8.28;40;16.11;40;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-10;35.1;57.9;0.0;0.0;0.0;6.71;50;21.92;60;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-15;33.1;54.0;0.0;0.0;0.0;3.58;40;12.97;50;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-16;36.0;66.9;0.0;0.0;0.0;3.13;300;12.97;280;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-19;34.0;64.0;0.08;0.0;0.0;9.17;220;25.95;230;36.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-20;28.2;57.0;0.0;0.0;0.0;2.01;340;10.07;350;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-01;41.0;63.0;0.0;0.0;0.0;5.14;50;14.99;50;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-02;45.0;51.1;0.0;0.0;0.0;2.91;100;10.07;100;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-03;42.1;64.0;0.0;0.0;0.0;2.46;50;8.95;30;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-05;41.0;69.1;0.0;0.0;0.0;4.7;220;14.09;220;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-07;39.9;48.9;0.0;0.0;0.0;2.46;210;8.05;190;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-11;26.2;55.0;0.0;0.0;0.0;4.92;240;12.08;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-29;50.0;72.0;0.0;0.0;0.0;5.14;260;16.11;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-30;46.9;75.0;0.0;0.0;0.0;3.13;30;12.08;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-02;55.0;77.0;0.0;0.0;0.0;6.93;210;16.11;210;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-04;48.9;75.0;0.0;0.0;0.0;2.68;250;14.09;260;19.91;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-11;55.9;70.0;0.01;0.0;0.0;4.7;50;14.99;90;19.91;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-10-18;39.9;52.0;0.0;0.0;0.0;5.14;30;17.0;40;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-21;42.1;78.1;0.0;0.0;0.0;1.79;220;8.95;220;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-28;54.0;75.9;0.04;0.0;0.0;5.82;210;16.11;200;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-11-01;48.9;70.0;0.92;0.0;0.0;10.51;40;21.92;30;31.09;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-11-02;42.1;60.1;0.03;0.0;0.0;4.7;40;12.08;30;17.0;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-11-06;37.9;60.1;0.0;0.0;0.0;2.68;20;14.09;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-13;48.0;55.0;0.03;0.0;0.0;11.41;20;19.91;10;31.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;Yes;No
2009-11-15;44.1;73.0;0.0;0.0;0.0;0.0;220;4.92;110;10.07;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-11-20;42.1;63.0;0.0;0.0;0.0;3.58;40;14.99;40;23.04;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-21;39.0;57.0;0.0;0.0;0.0;3.58;40;14.09;50;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-29;39.0;71.1;0.0;0.0;0.0;7.83;210;14.99;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-02;39.9;68.0;2.3;0.0;0.0;8.72;220;31.99;230;38.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-03;39.0;68.0;0.0;0.0;0.0;9.4;230;31.09;220;40.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-07;27.0;51.1;0.0;0.0;0.0;1.79;240;8.95;230;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-09;39.9;70.0;0.76;0.0;0.0;14.99;230;36.91;240;51.0;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;Yes;No;No
2009-12-10;35.1;59.0;0.0;0.0;0.0;8.95;240;17.9;270;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-18;30.9;37.0;0.46;0.12;0.0;9.4;50;25.05;50;33.11;Yes;No;Yes;Yes;No;Yes;No;No;Yes;No;No;Yes;No;Yes;No;No;No
2009-12-27;28.0;55.0;0.0;0.0;0.0;3.58;220;12.08;210;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-30;23.0;37.9;0.07;0.0;0.0;3.58;110;8.95;140;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-31;32.0;46.0;0.11;0.0;0.0;1.57;110;6.93;120;12.08;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2010-01-12;28.0;37.9;0.0;0.0;0.0;2.68;20;12.97;10;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-20;37.0;64.9;0.0;0.0;0.0;4.47;80;16.11;70;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-01-24;39.9;64.9;0.13;0.0;0.0;9.62;160;27.96;140;36.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-01-29;28.0;46.0;0.1;1.42;0.0;7.16;60;14.99;50;19.91;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-02-02;28.9;37.0;0.09;0.0;0.98;5.14;60;21.92;60;29.08;Yes;No;Yes;Yes;No;No;No;Yes;No;Yes;Yes;No;No;Yes;No;No;No
2010-02-07;21.9;42.1;0.0;0.0;0.0;2.24;10;12.97;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-12;26.1;39.0;0.1;0.98;0.0;1.79;80;8.95;350;12.97;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-02-14;24.1;46.9;0.0;0.0;0.0;4.92;230;14.09;250;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-19;25.0;54.0;0.0;0.0;0.0;3.13;260;14.09;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-03;33.1;44.1;0.12;0.59;0.98;6.04;320;12.97;320;21.03;Yes;No;Yes;Yes;No;Yes;No;No;Yes;No;No;No;No;Yes;No;No;No
2010-03-05;25.0;51.1;0.0;0.0;0.0;3.36;310;14.09;310;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-08;30.0;66.0;0.0;0.0;0.0;2.01;60;12.97;330;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-12;57.0;64.0;0.09;0.0;0.0;6.71;90;14.99;90;21.03;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;No;No
2010-03-14;45.0;62.1;0.22;0.0;0.0;5.59;240;14.99;250;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-03-15;39.9;62.1;0.0;0.0;0.0;5.37;290;14.99;300;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-21;52.0;69.1;0.0;0.0;0.0;8.95;230;17.9;160;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-26;36.0;66.9;0.06;0.0;0.0;8.95;200;19.91;40;29.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-03-30;51.1;69.1;0.0;0.0;0.0;7.83;280;17.9;300;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-03;55.0;80.1;0.0;0.0;0.0;7.83;230;16.11;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-07;61.0;87.1;0.0;0.0;0.0;12.97;230;21.92;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-08;62.1;81.0;0.13;0.0;0.0;15.21;230;27.96;210;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-04-16;50.0;86.0;0.0;0.0;0.0;8.28;240;21.03;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-21;48.0;64.9;0.33;0.0;0.0;2.68;310;12.97;320;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-04-30;50.0;82.9;0.0;0.0;0.0;9.62;230;21.03;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-01;61.0;89.1;0.0;0.0;0.0;10.51;220;19.91;240;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-04;57.9;82.0;0.0;0.0;0.0;3.8;230;14.09;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-06;68.0;91.9;0.0;0.0;0.0;8.05;240;16.11;220;21.92;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-05-07;61.0;90.0;0.0;0.0;0.0;7.83;210;16.11;170;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-12;64.0;84.9;0.0;0.0;0.0;11.18;230;21.92;220;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-13;64.0;75.9;0.0;0.0;0.0;6.93;50;14.99;120;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes;No
2010-05-17;55.9;77.0;2.3;0.0;0.0;8.28;110;16.11;10;21.03;Yes;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;Yes;No;No;No
2010-05-22;66.0;82.0;0.59;0.0;0.0;4.92;250;17.9;250;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-05-29;64.9;84.0;0.02;0.0;0.0;5.14;190;16.11;200;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-05-30;69.1;88.0;0.0;0.0;0.0;7.38;240;17.9;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-06;72.0;93.0;0.18;0.0;0.0;10.29;230;21.92;230;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-06-18;69.1;88.0;0.0;0.0;0.0;5.82;70;14.09;80;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-21;69.1;93.0;0.0;0.0;0.0;2.46;40;12.08;10;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-06-26;73.0;97.0;0.0;0.0;0.0;5.37;220;19.91;220;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-07-11;73.0;96.1;0.0;0.0;0.0;4.25;230;16.11;230;21.92;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-07-15;71.1;96.1;0.0;0.0;0.0;3.58;240;14.09;140;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-17;72.0;88.0;0.18;0.0;0.0;8.05;300;21.03;320;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-07-27;72.0;82.9;0.32;0.0;0.0;5.14;150;12.97;160;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-02;70.0;86.0;0.0;0.0;0.0;4.03;50;8.95;100;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-05;73.9;95.0;0.8;0.0;0.0;10.51;210;23.94;290;38.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-08;71.1;90.0;0.0;0.0;0.0;3.58;70;12.08;110;21.03;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-08-09;71.1;93.0;0.0;0.0;0.0;3.36;120;10.07;110;14.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-08-10;73.9;97.0;0.0;0.0;0.0;6.49;230;14.09;230;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-13;73.9;88.0;0.0;0.0;0.0;7.16;110;16.11;110;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2010-08-15;73.9;93.0;0.0;0.0;0.0;4.92;200;12.97;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-17;73.9;97.0;0.0;0.0;0.0;6.71;220;12.97;180;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-30;64.9;98.1;0.0;0.0;0.0;1.79;40;8.95;50;14.09;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-01;69.1;95.0;0.0;0.0;0.0;2.91;110;12.97;140;21.03;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-06;57.9;90.0;0.0;0.0;0.0;3.36;140;12.97;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-21;66.9;89.1;0.0;0.0;0.0;6.71;170;14.99;180;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-29;63.0;69.1;1.69;0.0;0.0;8.05;60;16.11;70;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-10-02;50.0;73.9;0.0;0.0;0.0;4.47;30;12.97;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-11;57.9;87.1;0.0;0.0;0.0;5.59;230;14.99;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-13;62.1;79.0;0.0;0.0;0.0;4.25;80;12.97;90;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-14;55.0;71.1;1.11;0.0;0.0;4.92;320;12.08;310;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-10-17;39.9;78.1;0.0;0.0;0.0;3.8;230;14.09;230;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-21;48.9;78.1;0.0;0.0;0.0;6.49;240;19.91;240;29.08;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2010-10-25;61.0;78.1;0.27;0.0;0.0;7.61;260;25.95;240;38.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-10-29;44.1;62.1;0.0;0.0;0.0;4.92;30;14.99;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-09;37.0;73.0;0.0;0.0;0.0;1.57;340;10.07;340;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-10;39.9;70.0;0.0;0.0;0.0;1.79;40;10.07;40;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-13;32.0;69.1;0.0;0.0;0.0;1.34;40;8.05;40;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-27;34.0;54.0;0.0;0.0;0.0;4.25;280;12.97;260;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-29;27.0;55.0;0.0;0.0;0.0;4.25;80;10.07;90;14.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-12-03;33.1;48.9;0.0;0.0;0.0;2.01;10;8.95;260;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-04;28.9;41.0;0.27;0.79;0.0;0.89;220;8.95;230;12.08;Yes;Yes;No;Yes;No;Yes;No;Yes;Yes;No;Yes;No;No;No;Yes;No;No
2010-12-05;28.9;41.0;0.0;0.0;0.0;6.93;290;19.91;320;29.97;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2010-12-06;25.0;37.9;0.0;0.0;0.0;8.28;290;19.91;280;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-10;24.1;48.0;0.0;0.0;0.0;0.22;110;6.93;130;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-11;26.1;41.0;0.17;0.0;0.0;2.91;50;8.05;20;10.07;Yes;Yes;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2010-12-17;28.0;43.0;0.0;0.0;0.0;2.24;50;8.95;110;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-18;28.9;39.0;0.01;0.0;0.0;4.92;50;8.95;360;12.08;Yes;No;Yes;Yes;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No
2010-12-22;41.0;52.0;0.0;0.0;0.0;2.01;330;12.97;320;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-27;19.9;37.0;0.0;0.0;4.02;8.05;300;19.91;290;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-30;24.1;46.0;0.0;0.0;0.0;0.89;220;6.04;180;8.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-02;37.0;62.1;0.17;0.0;0.0;7.38;220;14.09;360;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-01-12;26.1;37.9;0.0;0.0;0.0;9.17;290;21.92;310;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-13;19.9;42.1;0.0;0.0;0.0;3.8;350;12.08;320;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-15;26.1;50.0;0.0;0.0;0.0;6.71;240;17.9;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-24;25.0;39.9;0.0;0.0;0.0;4.25;90;14.09;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-30;35.1;69.1;0.0;0.0;0.0;3.8;60;10.07;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-02;44.1;68.0;0.18;0.0;0.0;14.32;230;31.09;230;40.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-08;30.0;50.0;0.0;0.0;0.0;8.05;290;16.11;290;27.96;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-12;24.1;57.0;0.0;0.0;0.0;5.14;270;17.9;320;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-14;37.9;72.0;0.0;0.0;0.0;11.41;230;29.08;300;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-10;42.1;68.0;0.47;0.0;0.0;9.84;240;31.99;250;44.96;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-03-12;30.9;69.1;0.0;0.0;0.0;10.07;220;23.04;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-13;45.0;77.0;0.0;0.0;0.0;5.82;280;14.99;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-18;46.0;84.9;0.0;0.0;0.0;8.5;240;17.9;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-20;42.1;60.1;0.0;0.0;0.0;6.04;90;14.99;100;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-22;54.0;84.9;0.0;0.0;0.0;6.71;270;16.11;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-16;55.9;73.9;0.39;0.0;0.0;15.43;170;36.01;160;48.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-04-17;45.0;71.1;0.0;0.0;0.0;6.49;280;17.0;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-22;51.1;57.9;0.43;0.0;0.0;5.82;110;14.99;100;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-30;46.0;77.0;0.0;0.0;0.0;3.13;320;10.07;350;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-01;54.0;75.0;0.0;0.0;0.0;5.14;130;14.09;130;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-09;50.0;80.1;0.0;0.0;0.0;1.57;300;8.05;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-10;54.0;82.0;0.16;0.0;0.0;4.7;110;14.99;320;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-06-04;55.9;89.1;0.0;0.0;0.0;2.91;230;12.08;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-08;72.0;97.0;0.0;0.0;0.0;4.92;250;12.08;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-09;73.9;97.0;0.0;0.0;0.0;7.61;230;10.96;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-13;69.1;84.9;0.0;0.0;0.0;4.92;70;12.97;90;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-30;66.0;91.0;0.0;0.0;0.0;4.47;40;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-02;66.0;95.0;0.0;0.0;0.0;2.68;50;12.97;20;17.9;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-08;73.9;91.9;0.41;0.0;0.0;7.83;220;17.0;210;21.92;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-22;78.1;102.9;0.0;0.0;0.0;8.05;230;17.9;230;25.95;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-07-23;78.1;102.9;0.0;0.0;0.0;7.16;250;17.9;210;27.96;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-08-02;70.0;97.0;0.0;0.0;0.0;2.91;350;10.07;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-12;71.1;88.0;0.0;0.0;0.0;6.26;140;17.0;130;25.05;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-08-13;71.1;82.0;0.48;0.0;0.0;5.37;240;14.99;190;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-08-24;64.9;88.0;0.0;0.0;0.0;5.14;160;12.08;190;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-06;73.9;88.0;1.59;0.0;0.0;10.29;170;29.08;190;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-09-11;64.9;88.0;0.0;0.0;0.0;2.46;240;10.07;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-22;70.0;82.0;0.08;0.0;0.0;2.46;230;8.95;220;12.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2011-09-23;66.0;73.9;0.68;0.0;0.0;3.58;190;19.91;190;25.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-09-30;55.9;84.0;0.16;0.0;0.0;2.91;300;19.91;320;25.05;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-10-06;50.0;75.0;0.0;0.0;0.0;4.92;80;14.09;90;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-08;46.0;73.0;0.0;0.0;0.0;5.14;40;12.97;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-13;66.0;80.1;0.0;0.0;0.0;8.05;220;17.9;240;23.94;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-20;45.0;62.1;0.0;0.0;0.0;13.42;240;23.94;240;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-26;45.0;75.9;0.0;0.0;0.0;7.61;230;23.04;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-28;43.0;63.0;0.08;0.0;0.0;9.4;40;21.92;40;25.95;No;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-10-30;30.0;57.9;0.0;0.0;0.0;2.91;50;10.07;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-01;37.0;61.0;0.0;0.0;0.0;2.46;30;16.11;30;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-06;39.9;64.9;0.0;0.0;0.0;3.36;110;10.07;110;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-10;39.9;66.9;0.01;0.0;0.0;3.58;50;12.97;310;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-19;28.0;63.0;0.0;0.0;0.0;1.34;230;8.95;310;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-22;61.0;77.0;0.0;0.0;0.0;6.93;200;19.91;200;27.96;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-29;39.9;66.9;0.97;0.0;0.0;12.3;230;31.99;230;36.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-01;28.9;55.9;0.0;0.0;0.0;1.57;40;10.07;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-02;28.9;64.0;0.0;0.0;0.0;1.57;240;8.95;240;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-06;60.1;72.0;0.0;0.0;0.0;7.83;220;16.11;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-12;32.0;48.0;0.0;0.0;0.0;3.13;30;8.95;30;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-16;43.0;66.0;0.53;0.0;0.0;6.71;40;14.99;350;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-19;28.0;57.9;0.0;0.0;0.0;7.16;230;19.91;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-20;39.9;62.1;0.0;0.0;0.0;5.82;230;12.08;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-25;34.0;52.0;0.0;0.0;0.0;4.92;230;14.99;230;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-02;32.0;55.0;0.0;0.0;0.0;8.95;290;16.11;310;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-03;24.1;35.1;0.0;0.0;0.0;8.72;310;21.03;280;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-08;48.0;59.0;0.02;0.0;0.0;4.03;80;12.08;80;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-10;43.0;55.9;0.0;0.0;0.0;1.12;240;8.05;240;10.07;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-16;27.0;46.9;0.0;0.0;0.0;6.49;210;14.09;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-06;30.9;48.9;0.0;0.0;0.0;0.0;230;6.04;220;10.07;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-09;28.0;51.1;0.0;0.0;0.0;1.57;40;10.07;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-11;25.0;48.0;0.0;0.0;0.0;8.28;310;23.04;290;42.95;No;No;No;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2012-02-22;41.0;70.0;0.0;0.0;0.0;10.51;220;29.97;230;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-25;36.0;53.1;0.0;0.0;0.0;11.41;250;23.94;280;38.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-26;25.0;54.0;0.0;0.0;0.0;3.58;240;10.07;160;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-02;44.1;61.0;0.02;0.0;0.0;4.92;50;14.09;110;17.0;No;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-11;30.9;64.0;0.0;0.0;0.0;2.91;150;12.08;140;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-14;54.0;84.0;0.0;0.0;0.0;3.36;230;12.97;240;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-15;54.0;84.0;0.0;0.0;0.0;4.25;230;21.03;220;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-18;57.9;70.0;0.87;0.0;0.0;2.24;130;8.95;50;12.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-19;53.1;77.0;0.33;0.0;0.0;1.79;50;12.08;30;17.9;No;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-20;57.9;81.0;1.58;0.0;0.0;3.58;350;10.07;350;17.9;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-03-22;59.0;80.1;0.0;0.0;0.0;4.47;210;12.08;200;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-27;39.0;62.1;0.0;0.0;0.0;5.37;70;14.09;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-11;43.0;57.9;0.0;0.0;0.0;6.93;320;17.9;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-12;32.0;63.0;0.0;0.0;0.0;2.68;40;14.09;300;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-14;42.1;75.9;0.0;0.0;0.0;8.05;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-19;52.0;63.0;0.0;0.0;0.0;3.8;30;10.07;310;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-01;66.9;86.0;0.0;0.0;0.0;10.51;230;21.92;220;25.05;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-05-02;66.9;91.0;0.0;0.0;0.0;6.26;230;14.99;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-24;64.9;86.0;0.19;0.0;0.0;3.58;90;17.9;90;21.92;No;Yes;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2012-06-21;71.1;96.1;0.0;0.0;0.0;5.82;150;16.11;140;21.03;No;No;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-02;73.9;93.9;0.0;0.0;0.0;5.14;290;19.91;280;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-05;72.0;100.9;0.0;0.0;0.0;5.59;60;14.09;60;17.9;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-26;75.9;98.1;0.0;0.0;0.0;8.28;220;17.9;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-28;68.0;95.0;1.12;0.0;0.0;4.25;10;19.91;10;38.92;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-01;72.0;90.0;0.03;0.0;0.0;1.79;80;21.03;80;29.08;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-07;73.9;87.1;0.08;0.0;0.0;5.59;180;14.09;230;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-08;69.1;89.1;0.06;0.0;0.0;5.14;340;17.0;330;23.94;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-12;71.1;87.1;0.0;0.0;0.0;2.46;80;6.93;;;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-08-16;69.1;89.1;0.0;0.0;0.0;2.91;90;10.07;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-19;69.1;75.0;2.08;0.0;0.0;5.59;120;12.97;110;16.11;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-22;69.1;81.0;0.13;0.0;0.0;3.36;350;21.03;330;29.08;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-23;66.9;84.0;0.0;0.0;0.0;4.92;80;10.96;;;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-01;73.0;91.9;0.0;0.0;0.0;4.03;50;14.99;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-03;71.1;89.1;0.91;0.0;0.0;3.8;30;19.91;30;25.95;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-04;73.0;89.1;0.03;0.0;0.0;7.16;190;14.09;200;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-05;73.9;88.0;0.0;0.0;0.0;9.84;240;21.03;240;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-15;61.0;80.1;0.0;0.0;0.0;5.14;40;14.09;50;17.9;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-19;57.0;72.0;0.0;0.0;0.0;6.26;50;17.0;40;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-23;53.1;75.0;0.0;0.0;0.0;2.68;50;14.09;40;19.91;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-05;57.0;82.0;0.0;0.0;0.0;1.57;190;8.05;180;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-06;57.9;84.0;0.0;0.0;0.0;3.8;240;14.99;240;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-13;42.1;66.9;0.0;0.0;0.0;3.36;50;14.99;40;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-15;55.9;73.0;0.11;0.0;0.0;5.82;230;12.08;240;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-17;46.0;72.0;0.0;0.0;0.0;3.8;170;12.08;140;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-19;53.1;78.1;0.19;0.0;0.0;7.61;230;25.05;230;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-26;57.0;72.0;0.01;0.0;0.0;7.83;40;16.11;30;21.92;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-13;39.9;64.9;0.18;0.0;0.0;6.71;30;12.97;10;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-11-15;37.0;46.0;0.29;0.0;0.0;4.47;50;10.07;30;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-11-21;36.0;59.0;0.0;0.0;0.0;3.8;40;14.09;50;19.91;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-26;30.9;66.9;0.0;0.0;0.0;2.68;230;12.08;230;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-27;42.1;57.9;0.09;0.0;0.0;4.25;30;14.09;30;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-01;34.0;64.9;0.0;0.0;0.0;0.22;240;6.04;250;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-03;53.1;75.9;0.0;0.0;0.0;4.92;220;8.95;220;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-10;63.0;72.0;0.01;0.0;0.0;11.63;230;23.04;230;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-18;39.0;62.1;0.0;0.0;0.0;6.71;230;17.0;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-25;44.1;60.1;0.01;0.0;0.0;5.14;90;17.0;100;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-04;26.1;51.1;0.0;0.0;0.0;4.47;300;14.09;310;23.94;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-05;25.0;48.9;0.0;0.0;0.0;1.79;230;8.05;230;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-18;28.9;46.0;0.06;0.12;0.98;2.24;360;12.08;360;17.0;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2013-01-26;27.0;37.9;0.0;0.0;0.0;1.34;40;8.05;30;10.07;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes
2013-01-27;21.9;41.0;0.0;0.0;0.0;1.57;100;10.07;80;14.09;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes
2013-01-30;61.0;72.0;0.35;0.0;0.0;18.12;210;31.99;200;46.98;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-07;36.0;48.0;0.43;0.0;0.0;8.72;70;16.11;80;21.92;No;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2013-02-12;46.9;60.1;0.0;0.0;0.0;3.8;290;12.97;330;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-19;35.1;51.1;0.14;0.0;0.0;9.62;210;21.92;210;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-26;36.0;57.9;0.86;0.0;0.0;10.29;110;25.05;120;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-01;28.0;48.9;0.0;0.0;0.0;4.7;290;12.97;290;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-05;35.1;50.0;0.41;0.0;0.0;4.92;110;17.9;120;27.96;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-03-08;30.9;55.0;0.0;0.0;0.0;5.59;310;16.11;10;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-14;28.9;53.1;0.0;0.0;0.0;4.7;280;14.99;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-19;39.9;66.9;0.0;0.0;0.0;6.71;280;17.9;300;27.96;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-03-22;23.0;52.0;0.0;0.0;0.0;4.92;240;17.0;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-01;48.9;71.1;0.01;0.0;0.0;5.59;290;17.0;310;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-07;36.0;71.1;0.0;0.0;0.0;6.04;230;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-15;57.9;71.1;0.02;0.0;0.0;7.16;90;17.0;100;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-23;46.9;66.9;0.13;0.0;0.0;4.47;40;14.99;50;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-25;50.0;71.1;0.0;0.0;0.0;4.03;20;12.97;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-29;55.0;72.0;0.86;0.0;0.0;2.68;240;10.07;240;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-30;57.0;66.0;0.0;0.0;0.0;5.37;50;12.08;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-06;55.9;68.0;1.41;0.0;0.0;8.05;240;18.12;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-09;54.0;80.1;0.0;0.0;0.0;3.36;280;14.99;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-18;62.1;78.1;0.42;0.0;0.0;2.46;270;17.0;280;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-21;69.1;84.9;0.0;0.0;0.0;7.83;170;14.99;170;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-29;63.0;84.9;0.0;0.0;0.0;8.5;230;14.99;170;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-02;68.0;87.1;0.11;0.0;0.0;11.18;190;18.12;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-04;64.0;79.0;0.0;0.0;0.0;4.03;40;14.09;40;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-09;66.9;87.1;0.02;0.0;0.0;3.13;180;8.05;180;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-13;68.0;93.9;0.05;0.0;0.0;9.4;300;29.97;300;48.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-17;71.1;87.1;0.0;0.0;0.0;8.5;230;14.09;220;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-20;63.0;82.0;0.0;0.0;0.0;7.16;50;14.09;110;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-21;55.0;82.9;0.0;0.0;0.0;6.04;90;12.08;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-25;70.0;91.9;0.01;0.0;0.0;8.95;230;21.03;110;25.95;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-06-30;68.0;87.1;0.99;0.0;0.0;6.49;280;18.12;310;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-09;72.0;89.1;0.0;0.0;0.0;6.71;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-10;73.0;89.1;0.04;0.0;0.0;9.17;230;19.91;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-13;70.0;78.1;0.53;0.0;0.0;5.37;90;12.97;110;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-20;73.9;90.0;0.0;0.0;0.0;10.51;230;18.12;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-23;73.9;91.0;0.0;0.0;0.0;7.83;280;14.09;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-24;71.1;96.1;0.5;0.0;0.0;2.91;320;16.11;330;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-25;66.0;80.1;0.0;0.0;0.0;5.14;30;14.09;30;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-28;69.1;90.0;0.46;0.0;0.0;6.26;270;16.11;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-06;66.9;84.0;0.14;0.0;0.0;5.82;240;16.11;230;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-07;70.0;87.1;0.0;0.0;0.0;4.92;220;12.97;210;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-21;70.0;88.0;0.01;0.0;0.0;3.13;230;12.08;330;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-22;70.0;89.1;0.0;0.0;0.0;3.8;190;8.95;200;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-23;66.9;88.0;0.0;0.0;0.0;5.14;30;14.09;340;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-25;60.1;80.1;0.0;0.0;0.0;4.92;80;14.99;80;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-27;62.1;89.1;0.0;0.0;0.0;2.91;220;8.05;260;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-02;70.0;88.0;0.0;0.0;0.0;5.59;230;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-10;68.0;91.0;0.0;0.0;0.0;4.7;220;8.95;240;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-13;64.9;84.9;0.0;0.0;0.0;3.58;300;12.08;280;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-21;66.0;75.9;0.77;0.0;0.0;4.7;310;10.07;150;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-24;53.1;75.9;0.0;0.0;0.0;1.12;30;6.93;140;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-25;53.1;75.0;0.0;0.0;0.0;1.12;100;8.95;90;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-27;52.0;73.9;0.0;0.0;0.0;5.82;50;16.11;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-02;57.0;84.9;0.0;0.0;0.0;1.57;270;8.95;300;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-03;59.0;86.0;0.0;0.0;0.0;3.58;220;12.97;210;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-07;63.0;73.9;0.86;0.0;0.0;6.93;210;21.03;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-14;55.9;64.9;0.11;0.0;0.0;7.61;50;14.99;40;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-17;60.1;77.0;0.0;0.0;0.0;6.49;230;17.0;220;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-19;57.9;70.0;0.01;0.0;0.0;2.91;230;12.08;210;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-20;43.0;64.9;0.0;0.0;0.0;2.68;50;12.97;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-28;45.0;69.1;0.0;0.0;0.0;0.67;220;8.05;200;8.95;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2013-11-03;39.9;63.0;0.0;0.0;0.0;3.8;40;14.99;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-06;44.1;71.1;0.0;0.0;0.0;3.58;80;8.95;150;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-13;26.2;45.0;0.0;0.0;0.0;3.13;30;16.11;30;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-14;25.2;57.0;0.0;0.0;0.0;5.37;230;14.99;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-24;23.2;43.0;0.0;0.0;0.0;6.93;20;14.99;300;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-29;24.3;50.0;0.0;0.0;0.0;4.03;40;14.09;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-01;27.1;59.0;0.0;0.0;0.0;0.67;230;8.05;290;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-05;55.0;66.9;0.03;0.0;0.0;6.71;220;18.12;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-08;33.1;42.1;0.05;0.0;0.0;8.05;30;17.0;40;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-10;28.2;48.0;0.47;0.0;0.0;2.91;40;12.08;320;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-12;25.2;44.1;0.0;0.0;0.0;2.24;300;12.08;290;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-13;23.2;52.0;0.0;0.0;0.0;2.91;230;12.97;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-17;35.1;60.1;0.0;0.0;0.0;6.49;220;18.12;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-18;31.1;48.9;0.0;0.0;0.0;3.36;270;12.97;300;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-20;43.0;66.9;0.0;0.0;0.0;8.28;230;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-24;29.1;46.9;0.0;0.0;0.0;6.49;10;12.97;10;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-26;24.3;53.1;0.03;0.0;0.0;1.12;260;8.05;270;10.07;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2013-12-29;43.0;63.0;1.94;0.0;0.0;7.16;230;21.92;170;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-30;35.1;53.1;0.0;0.0;0.0;1.79;300;8.95;270;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-06;16.2;61.0;0.13;0.0;0.0;13.65;220;29.97;210;38.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-10;39.0;45.0;0.57;0.0;0.0;3.58;270;10.07;280;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-12;39.0;57.9;0.0;0.0;0.0;5.82;250;16.11;260;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-20;30.2;64.0;0.0;0.0;0.0;8.05;230;18.12;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-26;22.1;52.0;0.0;0.0;0.0;8.5;220;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-24;37.9;60.1;0.0;0.0;0.0;5.14;290;14.99;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-27;24.3;55.0;0.0;0.0;0.0;5.82;230;21.92;250;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-01;28.2;55.0;0.0;0.0;0.0;3.36;90;12.08;90;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-09;39.0;66.0;0.0;0.0;0.0;3.36;330;12.97;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-10;34.0;73.9;0.0;0.0;0.0;5.37;240;16.11;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-11;44.1;79.0;0.0;0.0;0.0;5.14;240;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-29;55.9;66.0;0.49;0.0;0.0;5.59;250;25.05;270;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-04;57.0;82.0;0.0;0.0;0.0;11.63;230;31.99;230;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-08;55.0;66.9;0.01;0.0;0.0;6.71;220;21.92;230;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-09;45.0;68.0;0.07;0.0;0.0;3.36;340;12.97;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-16;33.1;54.0;0.0;0.0;0.0;7.61;40;17.0;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-19;46.0;53.1;0.56;0.0;0.0;8.95;40;16.11;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-22;46.9;82.9;0.0;0.0;0.0;5.82;230;17.0;260;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-26;48.9;79.0;0.0;0.0;0.0;6.71;230;19.91;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-28;54.0;66.9;0.0;0.0;0.0;6.93;110;14.99;110;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-30;64.9;77.0;1.12;0.0;0.0;10.96;180;23.94;160;38.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-01;62.1;79.0;0.0;0.0;0.0;13.65;230;27.96;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-04;48.9;82.9;0.0;0.0;0.0;5.59;240;19.91;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-11;60.1;86.0;0.0;0.0;0.0;2.24;60;8.95;40;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-25;54.0;82.0;0.0;0.0;0.0;2.46;240;10.07;240;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-26;61.0;87.1;0.09;0.0;0.0;8.72;230;17.0;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-30;63.0;73.9;0.0;0.0;0.0;4.7;50;12.97;120;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-17;70.0;96.1;0.0;0.0;0.0;7.16;220;18.12;210;23.04;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-06-19;70.0;97.0;0.27;0.0;0.0;6.04;280;31.09;280;46.98;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-20;68.0;91.0;0.64;0.0;0.0;2.68;120;17.0;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-28;69.1;84.9;0.0;0.0;0.0;8.5;90;17.0;90;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-08;73.9;98.1;0.0;0.0;0.0;11.86;230;23.04;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-10;71.1;88.0;0.66;0.0;0.0;5.14;120;17.0;110;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-14;75.0;98.1;0.0;0.0;0.0;9.62;190;14.99;270;21.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-07-20;68.0;81.0;0.93;0.0;0.0;4.03;100;8.95;130;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-25;66.0;82.9;0.0;0.0;0.0;3.36;80;8.95;140;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-26;69.1;90.0;0.0;0.0;0.0;3.13;220;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-27;72.0;87.1;0.45;0.0;0.0;7.61;230;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-28;70.0;88.0;0.0;0.0;0.0;6.49;270;18.12;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-05;68.0;88.0;0.0;0.0;0.0;2.46;50;12.08;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-07;69.1;86.0;0.0;0.0;0.0;4.47;50;12.08;60;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-12;70.0;87.1;2.45;0.0;0.0;4.92;230;23.04;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-27;57.9;86.0;0.0;0.0;0.0;3.36;50;12.08;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-27;55.0;75.9;0.0;0.0;0.0;3.8;40;12.97;80;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-03;64.9;84.9;0.09;0.0;0.0;7.83;220;19.91;220;23.94;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2014-10-04;46.9;73.0;0.0;0.0;0.0;7.38;290;14.09;290;21.03;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-10-06;45.0;75.9;0.0;0.0;0.0;8.05;210;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-08;60.1;82.9;0.0;0.0;0.0;5.14;240;14.99;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-15;57.0;75.0;0.62;0.0;0.0;6.71;170;18.12;170;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-31;42.1;62.1;0.0;0.0;0.0;5.14;90;12.97;80;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-12;50.0;75.9;0.0;0.0;0.0;3.13;300;8.95;300;12.97;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-21;26.2;48.0;0.0;0.0;0.0;3.58;350;12.97;10;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-23;34.0;66.0;0.64;0.0;0.0;4.7;170;21.92;160;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-24;60.1;72.0;0.01;0.0;0.0;13.2;230;25.05;230;33.11;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-12-03;44.1;57.0;0.0;0.0;0.0;4.25;220;14.99;220;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-11;26.2;48.0;0.0;0.0;0.0;5.37;250;14.99;260;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-13;28.2;60.1;0.0;0.0;0.0;1.57;310;8.95;300;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-18;31.1;51.1;0.0;0.0;0.0;1.12;30;8.95;30;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-27;31.1;62.1;0.0;0.0;0.0;3.13;230;12.08;240;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-12-28;48.0;61.0;0.01;0.0;0.0;6.71;230;14.99;230;19.91;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-29;41.0;55.0;0.72;0.0;0.0;6.71;30;12.08;50;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-05;32.0;55.9;0.0;0.0;0.0;5.37;310;14.99;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-06;26.2;55.0;0.0;0.0;0.0;4.7;230;21.03;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-29;23.2;46.9;0.02;0.0;0.0;4.7;220;14.99;200;18.12;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2015-02-01;32.0;57.0;0.0;0.0;0.0;6.71;220;19.91;190;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-07;26.2;60.1;0.0;0.0;0.0;8.28;240;23.04;240;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-09;45.0;62.1;0.4;0.0;0.0;6.04;50;17.0;50;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-02-10;36.0;45.0;0.17;0.0;0.0;10.96;30;16.11;10;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-15;15.3;29.1;0.0;0.0;0.0;9.4;310;23.04;310;38.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-28;26.2;37.0;0.0;0.0;1.18;6.93;50;17.0;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-03;35.1;43.0;0.07;0.0;0.0;5.37;90;14.09;90;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-06;24.3;37.0;0.0;0.0;0.0;5.82;50;17.0;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-11;59.0;75.9;0.11;0.0;0.0;5.14;240;16.11;360;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-17;46.9;82.0;0.0;0.0;0.0;6.04;330;17.0;340;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-18;35.1;61.0;0.0;0.0;0.0;2.01;230;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-03;9.1;32.0;0.06;0.91;0.0;4.25;360;12.97;340;23.04;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-01-08;16.2;46.9;0.0;0.0;0.0;5.37;220;16.11;230;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-12;55.9;71.1;0.5;0.0;0.0;11.41;240;23.04;230;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-24;34.0;54.0;0.0;0.0;0.0;4.03;360;16.11;20;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-19;39.9;50.0;0.3;0.0;0.0;2.46;120;12.08;130;16.11;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-25;60.1;73.0;0.0;0.0;0.0;11.18;240;23.04;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-01;50.0;57.0;0.59;0.0;0.0;4.47;220;14.99;260;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-09;25.2;52.0;0.0;0.0;0.0;6.04;260;17.0;250;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-13;29.1;48.0;0.0;0.0;1.18;6.71;290;17.0;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-17;34.0;71.1;0.27;0.0;0.0;6.26;230;25.05;220;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-03-19;44.1;64.9;0.0;0.0;0.0;5.59;120;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-26;32.0;53.1;0.0;0.0;0.0;10.29;40;19.91;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-27;34.0;48.9;0.01;0.0;0.0;5.37;220;14.09;210;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-02;51.1;81.0;0.0;0.0;0.0;9.84;50;21.03;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-06;45.0;73.0;0.0;0.0;0.0;11.41;240;25.95;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-13;52.0;80.1;0.0;0.0;0.0;14.32;230;27.96;240;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-15;61.0;82.0;3.31;0.0;0.0;12.53;220;38.92;210;48.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-04-16;41.0;64.0;0.0;0.0;0.0;14.76;230;33.11;230;42.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-24;53.1;64.9;0.85;0.0;0.0;12.3;110;29.08;110;36.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-25;51.1;68.0;0.0;0.0;0.0;3.8;300;12.97;290;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-27;54.0;73.0;0.01;0.0;0.0;4.92;240;14.99;260;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-28;50.0;78.1;0.0;0.0;0.0;5.82;230;18.12;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-01;45.0;82.9;0.0;0.0;0.0;4.47;240;16.11;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-05;63.0;82.0;0.0;0.0;0.0;7.83;220;12.97;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-11;59.0;89.1;0.0;0.0;0.0;4.03;260;14.09;250;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-16;68.0;84.9;0.76;0.0;0.0;6.71;170;18.12;240;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-19;69.1;75.0;0.59;0.0;0.0;8.5;170;16.11;180;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-23;69.1;87.1;0.0;0.0;0.0;6.93;240;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-24;68.0;84.0;0.0;0.0;0.0;6.93;50;16.11;110;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-17;70.0;93.0;0.0;0.0;0.0;5.37;220;12.97;220;14.99;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-20;73.0;93.9;0.0;0.0;0.0;4.47;200;17.0;200;21.03;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-01;73.0;95.0;0.48;0.0;0.0;5.82;220;14.99;200;18.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-08;62.1;82.0;0.0;0.0;0.0;8.05;40;17.0;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-11;66.9;96.1;0.05;0.0;0.0;3.8;80;12.97;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-13;68.0;88.0;0.0;0.0;0.0;7.61;100;16.11;130;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-21;69.1;88.0;0.01;0.0;0.0;6.71;60;17.0;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-25;69.1;82.0;0.27;0.0;0.0;3.8;280;12.97;240;16.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-01;73.0;90.0;0.02;0.0;0.0;9.17;180;18.12;170;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-03;70.0;77.0;1.12;0.0;0.0;5.82;170;21.03;170;29.97;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-06;72.0;91.9;0.05;0.0;0.0;2.91;260;12.97;280;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-07;71.1;93.0;0.2;0.0;0.0;6.71;270;16.11;250;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-08;69.1;93.9;0.46;0.0;0.0;6.49;270;21.92;280;31.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-09;69.1;90.0;0.0;0.0;0.0;4.7;260;12.08;290;18.12;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-08-13;66.9;84.9;0.08;0.0;0.0;3.58;40;17.0;30;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-17;73.0;91.0;0.0;0.0;0.0;9.62;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-21;71.1;87.1;0.01;0.0;0.0;9.4;240;18.12;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-15;73.0;77.0;1.85;0.0;0.0;15.88;80;29.97;90;38.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-21;70.0;82.9;0.0;0.0;0.0;4.92;170;10.07;150;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-22;66.9;88.0;0.0;0.0;0.0;4.47;230;10.07;160;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-30;62.1;81.0;0.0;0.0;0.0;4.03;80;12.08;130;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-01;60.1;82.0;0.0;0.0;0.0;2.01;80;8.95;170;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-03;64.0;86.0;0.0;0.0;0.0;2.68;230;8.95;230;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-16;64.0;75.0;0.01;0.0;0.0;4.92;40;12.08;40;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-22;34.0;62.1;0.0;0.0;0.0;3.8;240;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-27;46.9;55.0;0.01;0.0;0.0;8.5;230;18.12;230;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-03;39.0;61.0;0.0;0.0;0.0;5.82;230;19.91;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-04;37.0;64.9;0.04;0.0;0.0;7.38;80;17.0;100;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-07;48.9;73.0;0.0;0.0;0.0;1.34;140;8.05;140;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-16;34.0;54.0;0.0;0.0;0.0;5.59;250;12.97;250;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-26;39.0;63.0;0.01;0.0;0.0;9.84;250;23.04;250;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-03;46.9;68.0;0.0;0.0;0.0;5.59;230;12.08;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-08;31.1;43.0;0.0;0.0;0.0;4.7;70;12.97;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-13;29.1;51.1;0.0;0.0;0.0;2.24;160;10.07;170;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-22;34.0;53.1;0.0;0.0;0.0;6.71;280;16.11;270;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-27;29.1;54.0;0.02;0.0;0.0;5.14;90;14.09;110;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-01;51.1;71.1;0.0;0.0;0.0;7.38;220;21.92;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-21;17.2;31.1;0.0;0.0;0.0;5.82;270;14.99;290;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-30;21.2;44.1;0.0;0.0;0.0;8.28;230;25.05;240;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-01;27.1;57.9;0.0;0.0;0.0;5.37;230;18.12;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-06;46.9;77.0;0.0;0.0;0.0;7.16;200;19.91;200;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-09;33.1;46.0;0.0;0.0;0.0;6.04;50;14.09;10;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-10;27.1;43.0;0.0;0.0;0.0;3.8;90;12.97;80;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-13;39.0;57.0;0.0;0.0;0.0;10.07;280;21.03;270;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-23;39.0;42.1;1.02;0.0;0.0;5.14;140;14.09;60;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-28;42.1;62.1;0.0;0.0;0.0;5.82;130;16.11;140;21.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-04;34.0;50.0;0.01;0.0;0.0;4.92;270;12.08;310;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-03-07;23.2;50.0;0.0;0.0;0.0;2.46;280;10.07;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-11;44.1;66.0;0.0;0.0;0.0;2.91;40;12.08;320;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-14;50.0;75.0;0.0;0.0;0.0;10.29;230;23.04;240;29.97;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2019-03-16;39.9;59.0;0.0;0.0;0.0;4.92;360;14.09;340;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-19;33.1;55.0;0.0;0.0;0.0;6.26;40;14.99;50;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-21;44.1;59.0;0.58;0.0;0.0;6.26;330;14.09;360;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-24;32.0;71.1;0.0;0.0;0.0;7.61;230;21.03;240;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-27;30.2;57.0;0.0;0.0;0.0;6.93;40;17.0;80;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-03;31.1;69.1;0.0;0.0;0.0;4.7;230;16.11;230;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-07;52.0;71.1;0.0;0.0;0.0;5.14;210;12.08;210;14.99;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-11;46.9;79.0;0.0;0.0;0.0;6.49;180;14.99;140;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-14;66.0;79.0;0.28;0.0;0.0;11.86;220;31.09;210;44.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-04-17;48.0;80.1;0.0;0.0;0.0;6.71;230;12.97;220;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-21;44.1;64.0;0.0;0.0;0.0;3.13;220;12.08;210;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-22;43.0;73.0;0.0;0.0;0.0;1.79;310;12.08;310;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-25;59.0;82.0;0.0;0.0;0.0;5.14;240;17.0;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-02;63.0;84.9;0.0;0.0;0.0;9.17;250;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-20;69.1;88.0;0.0;0.0;0.0;10.96;240;18.12;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-22;62.1;80.1;0.0;0.0;0.0;6.04;210;14.99;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-23;64.0;84.0;0.0;0.0;0.0;8.05;230;19.91;240;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-07;71.1;78.1;0.53;0.0;0.0;4.7;230;12.08;90;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-11;61.0;81.0;0.02;0.0;0.0;6.26;40;14.99;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-13;61.0;79.0;0.35;0.0;0.0;7.61;230;19.91;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-14;53.1;79.0;0.0;0.0;0.0;4.03;340;14.09;350;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-06-23;66.9;81.0;0.0;0.0;0.0;4.03;90;12.08;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-04;72.0;96.1;1.0;0.0;0.0;3.58;220;21.03;230;29.97;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2019-07-08;73.9;91.9;0.17;0.0;0.0;4.7;40;17.0;40;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-16;71.1;96.1;0.0;0.0;0.0;3.36;150;14.99;120;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-17;75.9;98.1;0.03;0.0;0.0;8.95;240;25.95;250;33.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-24;62.1;84.0;0.0;0.0;0.0;4.7;40;14.99;30;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-08-01;66.9;91.0;0.87;0.0;0.0;4.47;130;33.11;140;50.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-08;68.0;91.0;0.12;0.0;0.0;3.36;240;19.91;240;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-06-26;61.0;81.0;0.0;0.0;0.0;6.93;50;17.9;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-29;71.1;105.1;0.0;0.0;0.0;5.82;350;23.04;330;38.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-07;72.0;102.0;0.0;0.0;0.0;6.26;240;17.9;230;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-12;69.1;82.9;0.0;0.0;0.0;4.03;70;8.05;;;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-14;73.9;91.9;0.0;0.0;0.0;4.47;160;8.05;;;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-16;73.9;96.1;0.0;0.0;0.0;7.38;230;14.99;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-07-18;75.0;98.1;0.0;0.0;0.0;8.5;220;17.0;240;25.05;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-07-22;72.0;88.0;1.1;0.0;0.0;2.01;90;10.07;90;12.08;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-04;75.0;91.9;0.0;0.0;0.0;6.71;190;14.99;190;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-05;73.9;91.9;0.0;0.0;0.0;8.95;180;21.92;180;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-13;66.9;90.0;0.0;0.0;0.0;2.24;240;8.95;160;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-15;71.1;88.0;0.0;0.0;0.0;4.25;140;14.09;140;17.9;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-08-21;69.1;82.0;0.0;0.0;0.0;1.57;140;10.07;120;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-27;70.0;88.0;0.0;0.0;0.0;3.13;160;12.08;90;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-08-31;71.1;91.9;0.0;0.0;0.0;6.49;240;12.97;250;16.11;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-11;55.0;78.1;0.0;0.0;0.0;2.46;50;12.08;50;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-12;53.1;79.0;0.0;0.0;0.0;3.36;80;12.97;100;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-17;62.1;82.0;0.72;0.0;0.0;3.36;160;10.07;140;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-18;68.0;81.0;1.7;0.0;0.0;9.17;230;23.04;280;34.9;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-09-20;53.1;75.9;0.0;0.0;0.0;1.34;50;8.95;120;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-21;55.0;82.0;0.0;0.0;0.0;2.91;220;10.07;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-09-29;60.1;68.0;0.99;0.0;0.0;4.03;40;12.08;50;14.09;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-10-03;72.0;86.0;0.0;0.0;0.0;4.92;210;12.97;210;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-08;46.9;52.0;0.38;0.0;0.0;8.05;50;16.11;50;21.03;No;No;No;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2012-10-10;54.0;72.0;0.0;0.0;0.0;4.03;240;14.09;280;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-12;44.1;73.0;0.0;0.0;0.0;3.36;70;17.9;80;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-18;48.0;79.0;0.0;0.0;0.0;5.59;170;17.0;170;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-20;46.0;72.0;0.0;0.0;0.0;2.68;240;14.09;240;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-21;41.0;68.0;0.0;0.0;0.0;0.89;40;8.95;40;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-10-30;42.1;51.1;0.07;0.0;0.0;12.75;250;21.03;230;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-03;34.0;61.0;0.0;0.0;0.0;2.68;320;12.08;300;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-09;30.9;64.9;0.0;0.0;0.0;1.12;240;8.95;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-10;36.0;73.9;0.0;0.0;0.0;2.68;240;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-11;39.0;75.0;0.0;0.0;0.0;4.47;200;12.08;180;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-12;52.0;73.9;0.0;0.0;0.0;6.93;190;14.09;180;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-14;33.1;51.1;0.0;0.0;0.0;7.61;40;17.9;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-16;39.0;55.0;0.0;0.0;0.0;4.47;40;14.09;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-17;34.0;55.9;0.0;0.0;0.0;7.61;40;19.91;40;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-22;34.0;61.0;0.0;0.0;0.0;3.58;40;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-11-29;25.0;55.0;0.0;0.0;0.0;1.34;240;10.07;240;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-07;45.0;55.9;0.05;0.0;0.0;3.13;80;8.05;10;8.95;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-12-09;51.1;72.0;0.02;0.0;0.0;5.59;170;14.09;170;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-11;50.0;64.9;0.0;0.0;0.0;6.93;220;17.9;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-12;39.0;50.0;0.24;0.0;0.0;9.17;50;17.0;50;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-15;32.0;57.9;0.0;0.0;0.0;1.57;90;8.95;140;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-17;55.0;62.1;0.18;0.0;0.0;7.83;220;19.91;150;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-22;32.0;50.0;0.0;0.0;0.0;7.38;290;17.0;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-12-26;37.0;48.9;1.41;0.0;0.0;9.17;80;23.04;90;31.09;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-01-02;39.9;48.9;0.24;0.0;0.0;3.58;40;12.08;40;16.11;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-01-03;28.9;45.0;0.0;0.0;0.0;1.79;40;6.93;90;12.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-08;28.0;55.9;0.0;0.0;0.0;0.89;130;8.95;140;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-09;35.1;68.0;0.0;0.0;0.0;1.79;230;12.08;230;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-10;46.0;64.9;0.0;0.0;0.0;4.47;70;12.97;80;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-13;55.0;75.0;0.0;0.0;0.0;8.05;230;21.03;230;23.94;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-14;57.9;69.1;0.0;0.0;0.0;6.04;230;14.09;230;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-17;33.1;51.1;1.41;0.71;0.0;8.72;50;31.99;30;38.92;No;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2013-01-22;25.0;43.0;0.0;0.0;0.0;5.37;300;14.99;300;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-23;18.0;42.1;0.0;0.0;0.0;4.25;230;17.0;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-24;21.0;36.0;0.0;0.0;0.0;6.93;20;17.9;340;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-01-29;44.1;73.0;0.0;0.0;0.0;8.95;230;17.0;230;19.91;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-05;39.0;60.1;0.0;0.0;0.0;5.82;220;14.99;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-02-13;42.1;50.0;0.23;0.0;0.0;3.58;310;12.08;320;17.0;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2013-02-21;25.0;54.0;0.0;0.0;0.0;4.25;90;16.11;100;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-02;26.1;48.0;0.0;0.0;0.0;3.58;310;12.97;320;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-10;32.0;66.9;0.0;0.0;0.0;3.36;140;12.08;170;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-18;37.9;43.0;0.28;0.0;0.0;6.49;90;14.09;80;19.91;Yes;Yes;No;No;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2013-03-21;30.9;46.0;0.0;0.0;0.0;7.38;320;17.0;330;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-24;34.0;43.0;0.73;0.0;0.0;7.61;50;17.9;50;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-27;34.0;52.0;0.0;0.0;0.0;6.04;290;17.0;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-03-29;28.0;57.9;0.0;0.0;0.0;2.46;240;14.09;260;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-02;35.1;60.1;0.0;0.0;0.0;4.7;300;16.11;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-04;39.0;48.0;0.72;0.0;0.0;10.51;50;17.0;50;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-08;52.0;78.1;0.0;0.0;0.0;9.84;230;21.03;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-12;63.0;80.1;1.04;0.0;0.0;12.3;230;23.94;230;33.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-13;52.0;73.9;0.0;0.0;0.0;3.8;240;14.09;270;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-18;62.1;79.0;0.0;0.0;0.0;8.95;160;18.12;170;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-04-22;35.1;61.0;0.01;0.0;0.0;10.51;50;19.91;50;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-01;57.0;62.1;0.01;0.0;0.0;9.84;50;19.91;80;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-12;52.0;72.0;0.0;0.0;0.0;5.82;280;16.11;280;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-13;44.1;64.9;0.0;0.0;0.0;3.36;280;16.11;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-14;39.0;70.0;0.0;0.0;0.0;4.7;230;17.0;240;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-22;69.1;82.9;0.01;0.0;0.0;9.17;170;14.99;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-26;48.0;73.0;0.0;0.0;0.0;2.01;240;12.97;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-05-28;64.0;84.9;0.0;0.0;0.0;9.17;220;16.11;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-03;64.0;82.9;0.45;0.0;0.0;5.59;330;16.11;330;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-06;66.0;77.0;0.38;0.0;0.0;8.5;140;17.0;150;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-15;57.0;84.9;0.0;0.0;0.0;4.47;230;14.99;220;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-22;69.1;82.0;0.0;0.0;0.0;6.71;130;17.0;130;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-06-26;69.1;91.9;0.29;0.0;0.0;9.4;340;19.91;330;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-05;72.0;89.1;0.0;0.0;0.0;7.61;140;14.09;170;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-06;73.0;88.0;0.01;0.0;0.0;6.49;190;17.0;180;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-12;70.0;77.0;0.05;0.0;0.0;4.25;170;12.97;50;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-15;69.1;90.0;0.0;0.0;0.0;2.24;70;8.95;90;31.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-27;68.0;88.0;0.13;0.0;0.0;4.25;300;14.09;300;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-07-29;69.1;87.1;0.03;0.0;0.0;2.24;230;14.09;200;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-01;70.0;87.1;0.0;0.0;0.0;4.92;240;14.09;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-03;70.0;91.0;2.3;0.0;0.0;5.82;120;18.12;130;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-04;66.0;84.0;0.0;0.0;0.0;4.25;50;14.09;30;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-08;72.0;91.0;0.0;0.0;0.0;3.8;240;12.08;260;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-10;73.0;93.9;0.08;0.0;0.0;6.71;230;10.96;;;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2013-08-15;59.0;75.9;0.0;0.0;0.0;5.37;50;12.97;80;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-16;59.0;71.1;0.0;0.0;0.0;4.25;50;10.07;50;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-17;64.0;73.0;0.19;0.0;0.0;7.38;50;12.97;60;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-20;68.0;82.9;0.0;0.0;0.0;1.34;130;6.93;120;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-28;70.0;82.9;0.0;0.0;0.0;3.58;230;12.97;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-08-30;64.9;88.0;0.0;0.0;0.0;2.91;60;8.05;110;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-06;64.0;82.0;0.0;0.0;0.0;4.92;50;14.09;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-29;52.0;75.0;0.0;0.0;0.0;3.36;50;14.09;40;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-09-30;51.1;75.9;0.0;0.0;0.0;1.79;50;10.07;20;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-09;54.0;62.1;0.19;0.0;0.0;9.84;40;17.0;10;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-24;35.1;59.0;0.0;0.0;0.0;4.25;270;14.99;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-26;29.1;59.0;0.0;0.0;0.0;5.14;230;16.11;270;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-10-31;57.9;75.9;0.0;0.0;0.0;8.72;200;19.91;210;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-01;60.1;73.0;1.23;0.0;0.0;12.53;220;21.92;180;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-05;37.0;57.0;0.0;0.0;0.0;5.14;40;12.08;40;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-10;37.9;72.0;0.0;0.0;0.0;5.37;280;17.0;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-11;32.0;59.0;0.0;0.0;0.0;1.79;140;8.95;150;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-16;50.0;69.1;0.0;0.0;0.0;3.13;30;8.95;20;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-22;46.9;71.1;0.03;0.0;0.0;5.37;230;17.0;230;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-25;18.1;43.0;0.0;0.0;0.0;2.01;170;10.07;160;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-26;37.0;66.0;0.83;0.0;0.0;8.05;170;18.12;170;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-27;30.2;50.0;0.71;0.0;0.0;6.26;310;14.99;330;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-11-30;27.1;48.0;0.0;0.0;0.0;3.58;40;12.08;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-06;64.9;79.0;0.0;0.0;0.0;13.87;230;27.96;230;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-15;34.0;54.0;0.03;0.0;0.0;4.92;310;12.97;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-22;64.0;78.1;0.28;0.0;0.0;14.09;220;25.95;220;35.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-27;26.2;52.0;0.0;0.0;0.0;1.12;40;8.05;30;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2013-12-28;25.2;59.0;0.0;0.0;0.0;1.12;240;8.95;230;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-05;37.0;62.1;0.0;0.0;0.0;4.92;180;16.11;180;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-17;29.1;55.9;0.0;0.0;0.0;9.17;230;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-23;16.2;37.9;0.0;0.0;0.0;4.7;30;14.99;10;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-28;18.1;33.1;0.18;1.18;0.0;8.28;80;14.99;20;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-29;14.2;27.1;0.0;0.2;1.18;4.03;10;10.07;10;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-01-30;7.2;37.9;0.0;0.0;1.18;1.79;100;12.08;110;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-02;41.0;64.0;0.0;0.0;0.0;8.05;230;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-04;37.9;39.9;0.48;0.0;0.0;7.61;80;16.11;80;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-06;31.1;42.1;0.0;0.0;0.0;3.58;50;10.07;330;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-07;35.1;52.0;0.0;0.0;0.0;2.91;240;10.07;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-10;35.1;43.0;0.08;0.0;0.0;2.91;30;12.97;40;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-12;23.2;30.2;0.64;3.31;0.0;10.96;40;17.0;50;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-21;41.0;73.0;0.4;0.0;0.0;11.41;250;31.99;250;40.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-22;36.0;64.0;0.0;0.0;0.0;2.01;240;8.05;160;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-25;29.1;53.1;0.0;0.0;0.0;3.13;40;10.07;310;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-26;32.0;48.9;0.0;0.0;0.0;3.58;40;10.07;40;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-02-28;26.2;45.0;0.0;0.0;0.0;8.95;70;17.0;80;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-04;16.2;37.9;0.0;0.0;0.0;7.38;40;17.0;30;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-12;42.1;70.0;0.35;0.0;0.0;12.97;220;29.08;320;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-21;32.0;69.1;0.0;0.0;0.0;5.37;230;17.0;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-25;33.1;45.0;0.03;0.0;0.0;5.82;120;12.97;320;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-27;24.3;59.0;0.0;0.0;0.0;6.93;210;17.0;220;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-03-30;42.1;62.1;0.23;0.0;0.0;10.51;250;25.05;270;36.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-01;39.0;80.1;0.0;0.0;0.0;2.68;230;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-02;52.0;86.0;0.0;0.0;0.0;6.26;230;18.12;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-05;53.1;71.1;0.0;0.0;0.0;6.04;350;14.99;330;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-06;44.1;60.1;0.0;0.0;0.0;9.62;60;18.12;60;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-07;43.0;64.0;1.42;0.0;0.0;6.93;200;18.12;200;27.96;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-10;39.9;73.9;0.0;0.0;0.0;6.49;230;21.03;210;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-18;37.9;63.0;0.18;0.0;0.0;6.26;50;14.99;50;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-04-29;52.0;64.9;0.05;0.0;0.0;6.93;80;12.97;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-09;63.0;89.1;0.07;0.0;0.0;8.72;230;21.03;230;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-14;68.0;89.1;0.0;0.0;0.0;8.05;160;14.99;180;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-15;66.9;79.0;3.38;0.0;0.0;8.95;150;14.99;170;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-05-17;46.9;71.1;0.0;0.0;0.0;5.37;270;16.11;320;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-01;53.1;78.1;0.0;0.0;0.0;5.59;120;14.09;90;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-02;52.0;82.9;0.0;0.0;0.0;2.24;250;10.07;300;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-04;64.9;91.9;0.02;0.0;0.0;4.7;20;21.92;20;40.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-05;72.0;91.0;0.0;0.0;0.0;7.61;230;18.12;270;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-12;69.1;84.9;0.08;0.0;0.0;3.58;210;12.08;200;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-16;69.1;95.0;0.08;0.0;0.0;4.25;250;14.99;240;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-06-18;70.0;97.0;0.0;0.0;0.0;7.38;240;18.12;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-02;75.9;97.0;0.0;0.0;0.0;9.84;190;17.0;200;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-04;71.1;88.0;0.0;0.0;0.0;6.04;260;12.08;340;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-11;69.1;86.0;0.0;0.0;0.0;2.46;110;8.95;120;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-15;70.0;93.9;4.21;0.0;0.0;7.61;230;17.0;330;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-23;71.1;91.9;0.0;0.0;0.0;5.59;210;17.0;220;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-07-24;68.0;88.0;1.45;0.0;0.0;5.37;10;21.92;10;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-09;64.0;73.9;1.01;0.0;0.0;5.59;90;12.97;130;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-17;70.0;89.1;0.0;0.0;0.0;2.24;250;8.95;260;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-19;69.1;86.0;0.0;0.0;0.0;2.46;220;8.05;;;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-25;60.1;79.0;0.0;0.0;0.0;6.49;40;16.11;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-26;60.1;82.0;0.0;0.0;0.0;4.47;50;14.09;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-08-28;64.9;91.9;0.0;0.0;0.0;1.34;60;8.95;320;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-06;71.1;91.0;0.0;0.0;0.0;5.59;180;12.97;190;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-09-19;63.0;80.1;0.0;0.0;0.0;6.93;80;16.11;130;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-10;57.9;84.0;0.63;0.0;0.0;8.05;220;17.0;10;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-10-13;60.1;81.0;0.0;0.0;0.0;4.03;150;12.08;150;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-19;44.1;64.9;0.0;0.0;0.0;2.91;10;12.97;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-24;43.0;70.0;0.0;0.0;0.0;2.01;230;8.95;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-10-29;55.0;78.1;0.18;0.0;0.0;7.83;240;19.91;220;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-02;37.0;53.1;0.0;0.0;0.0;6.71;330;17.0;300;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-03;29.1;64.0;0.0;0.0;0.0;3.36;230;12.97;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-13;44.1;59.0;0.0;0.0;0.0;7.38;50;14.09;80;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-18;23.2;43.0;0.0;0.0;0.0;5.59;270;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-20;28.2;59.0;0.0;0.0;0.0;7.38;240;21.03;250;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-11-25;48.0;64.9;0.1;0.0;0.0;5.37;220;16.11;220;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2014-11-30;36.0;66.0;0.0;0.0;0.0;8.72;230;23.04;240;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-02;46.0;55.0;0.0;0.0;0.0;6.49;50;18.12;50;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-10;31.1;50.0;0.0;0.0;0.0;5.37;300;14.99;310;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2014-12-23;37.0;46.9;0.9;0.0;0.0;2.46;90;8.95;100;12.97;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2014-12-31;26.2;46.0;0.0;0.0;0.0;1.34;50;8.95;270;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-02;41.0;54.0;0.0;0.0;0.0;2.91;230;8.95;230;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-04;48.9;69.1;0.29;0.0;0.0;10.07;240;25.95;210;38.92;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-11;17.2;48.9;0.0;0.0;0.0;0.89;80;6.93;140;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-12;36.0;48.0;1.29;0.0;0.0;2.01;130;12.97;130;18.12;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-13;31.1;44.1;0.03;0.0;0.0;11.41;40;19.91;50;27.96;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2015-01-20;39.0;66.9;0.0;0.0;0.0;6.26;230;16.11;220;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-23;35.1;41.0;0.67;0.0;0.0;6.93;60;14.09;50;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-25;29.1;55.0;0.0;0.0;0.0;4.7;230;12.97;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-01-30;29.1;48.0;0.0;0.0;0.0;8.05;300;18.12;310;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-06;17.2;42.1;0.0;0.0;0.0;4.25;230;12.97;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-24;19.2;30.2;0.09;1.42;0.0;4.47;90;16.11;90;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-02-25;18.1;46.0;0.36;1.89;1.18;4.25;170;12.08;160;16.11;Yes;No;No;No;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No
2015-03-01;28.2;35.1;0.67;0.0;1.18;3.58;220;12.08;220;14.09;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2015-03-07;20.1;57.9;0.0;0.0;0.0;6.04;230;16.11;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-12;48.9;66.0;0.0;0.0;0.0;7.83;90;17.0;90;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-15;48.0;73.0;0.0;0.0;0.0;6.26;290;16.11;310;25.05;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-01-08;39.9;66.9;0.3;0.0;0.0;9.84;210;25.05;220;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-20;26.1;48.0;0.0;0.0;0.0;4.92;290;16.11;320;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-23;32.0;50.0;0.0;0.0;0.0;2.68;20;10.07;310;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-24;30.0;48.9;0.0;0.0;0.0;2.91;50;14.09;50;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-01-26;21.9;48.9;0.0;0.0;0.0;5.82;250;17.0;250;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-03;27.0;45.0;0.0;0.0;0.0;7.83;250;17.0;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-06;15.1;39.0;0.0;0.0;0.0;6.04;190;17.0;200;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-13;37.9;50.0;0.59;0.0;0.0;6.71;10;21.03;10;25.95;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-14;28.0;53.1;0.14;0.0;0.0;8.5;220;31.99;230;40.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-15;21.9;39.9;0.0;0.0;0.0;4.47;290;12.08;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-16;23.0;39.0;0.0;0.0;0.0;4.92;300;14.99;260;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-02-22;48.9;73.9;0.0;0.0;0.0;9.62;270;27.96;310;33.11;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-03-08;30.0;55.0;0.0;0.0;0.0;6.93;50;21.92;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-13;44.1;80.1;0.0;0.0;0.0;4.47;210;14.09;210;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-16;37.9;66.0;2.14;0.0;0.0;8.05;30;16.11;340;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-03-28;61.0;86.0;0.0;0.0;0.0;5.14;110;21.03;100;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-04-09;32.0;55.9;0.0;0.0;0.0;0.89;230;12.97;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-22;48.9;84.0;0.0;0.0;0.0;5.59;190;12.97;200;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-04-30;46.9;87.1;0.0;0.0;0.0;6.49;230;17.9;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-01;59.0;91.9;0.0;0.0;0.0;6.26;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-06;46.9;66.9;0.0;0.0;0.0;13.42;30;23.94;40;31.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-13;51.1;73.0;0.0;0.0;0.0;8.72;40;21.03;50;23.94;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-05-14;44.1;75.0;0.0;0.0;0.0;4.25;190;12.97;160;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-15;53.1;82.0;0.0;0.0;0.0;10.74;220;19.91;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-19;43.0;73.0;0.0;0.0;0.0;3.58;290;12.97;280;16.11;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-20;46.9;82.9;0.0;0.0;0.0;4.92;270;17.0;270;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-21;54.0;88.0;0.0;0.0;0.0;3.36;120;17.0;120;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-05-31;64.0;91.0;0.0;0.0;0.0;6.49;180;14.09;170;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-06;60.1;84.0;0.22;0.0;0.0;4.7;270;12.97;290;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-06-09;68.0;91.9;0.39;0.0;0.0;5.59;30;36.01;30;44.07;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-06-10;69.1;87.1;0.0;0.0;0.0;6.49;100;14.99;100;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-16;57.9;82.9;0.03;0.0;0.0;4.25;230;14.99;240;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-17;64.0;89.1;0.06;0.0;0.0;3.58;10;10.07;10;14.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-18;63.0;96.1;0.0;0.0;0.0;3.13;220;12.08;220;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-20;64.9;82.9;0.2;0.0;0.0;3.13;40;12.97;40;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-06-23;66.0;84.9;0.12;0.0;0.0;3.8;90;12.97;120;14.99;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-06-25;68.0;91.0;0.0;0.0;0.0;5.37;130;14.09;130;16.11;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-07-10;72.0;95.0;0.11;0.0;0.0;5.82;240;19.91;230;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-07-11;70.0;95.0;0.82;0.0;0.0;10.07;220;36.01;210;42.95;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;Yes;No;No;No;No
2007-07-17;70.0;96.1;2.05;0.0;0.0;6.49;230;25.05;220;29.97;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-07-18;71.1;91.0;0.08;0.0;0.0;5.82;240;14.99;230;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-07-27;69.1;93.9;1.18;0.0;0.0;5.59;230;23.04;230;27.96;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-01;69.1;91.9;0.0;0.0;0.0;4.47;80;14.09;90;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-02;69.1;91.9;0.0;0.0;0.0;3.8;90;14.09;90;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-04;70.0;96.1;0.0;0.0;0.0;4.7;180;10.07;210;14.09;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-05;72.0;98.1;0.03;0.0;0.0;3.8;140;12.97;140;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-08-10;75.0;104.0;0.05;0.0;0.0;4.92;30;19.91;340;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2007-08-13;70.0;98.1;0.0;0.0;0.0;5.14;50;14.99;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-08-22;71.1;95.0;0.0;0.0;0.0;4.7;10;12.08;130;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-13;63.0;91.0;0.0;0.0;0.0;6.71;80;16.11;90;21.03;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-09-14;70.0;82.9;1.91;0.0;0.0;6.49;110;14.09;170;16.11;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2007-09-19;57.0;75.9;0.0;0.0;0.0;8.05;50;14.99;20;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-09-27;64.9;91.0;0.0;0.0;0.0;4.47;190;12.08;190;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-02;61.0;82.0;0.0;0.0;0.0;8.05;50;14.09;50;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-10-04;68.0;87.1;0.0;0.0;0.0;4.7;80;12.97;50;17.0;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-10;64.0;88.0;0.04;0.0;0.0;6.49;240;17.9;230;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-11;51.1;69.1;0.0;0.0;0.0;7.61;300;14.99;330;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-10-25;59.0;70.0;0.08;0.0;0.0;11.63;50;17.0;30;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No
2007-10-27;55.9;75.0;0.37;0.0;0.0;5.37;160;12.97;240;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-11-02;46.9;62.1;0.0;0.0;0.0;12.3;40;23.04;40;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-04;35.1;66.0;0.0;0.0;0.0;2.01;240;14.09;290;17.0;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-06;43.0;63.0;0.0;0.0;0.0;9.4;270;19.91;220;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-08;32.0;54.0;0.0;0.0;0.0;2.68;90;12.08;80;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-11;30.0;57.9;0.0;0.0;0.0;1.34;220;10.07;210;12.97;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-15;39.0;66.0;0.32;0.0;0.0;11.41;230;21.92;320;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-18;35.1;70.0;0.0;0.0;0.0;1.57;240;12.08;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-11-30;32.0;57.0;0.0;0.0;0.0;2.68;50;12.97;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-08;39.9;71.1;0.0;0.0;0.0;5.37;230;14.09;100;16.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-12;55.9;79.0;0.0;0.0;0.0;8.72;240;21.92;240;25.95;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2007-12-16;35.1;53.1;0.24;0.0;0.0;10.07;290;25.05;270;36.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2007-12-19;28.9;53.1;0.02;0.0;0.0;3.13;230;12.97;240;14.99;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2007-12-28;36.0;64.0;0.04;0.0;0.0;6.04;210;21.03;200;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-01-02;25.0;35.1;0.0;0.0;0.0;11.18;280;19.91;260;27.96;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2008-01-06;39.9;69.1;0.0;0.0;0.0;7.83;240;17.9;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-10;46.9;55.9;0.15;0.0;0.0;5.14;100;16.11;100;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-15;24.1;44.1;0.0;0.0;0.0;4.47;300;17.9;300;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-17;34.0;39.0;0.55;0.0;0.0;7.61;80;17.0;90;21.03;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2008-01-24;30.0;46.9;0.0;0.0;0.0;5.82;310;17.9;320;23.94;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-01-26;28.9;48.0;0.0;0.0;0.0;4.7;220;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-27;26.1;52.0;0.0;0.0;0.0;2.91;300;12.08;300;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-01-28;24.1;55.0;0.0;0.0;0.0;2.01;270;12.08;280;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-02;28.9;61.0;0.0;0.0;0.0;3.13;220;10.07;170;12.97;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-05;48.0;75.9;0.0;0.0;0.0;10.07;240;25.05;240;33.11;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-02-08;35.1;59.0;0.0;0.0;0.0;4.7;360;12.08;360;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-09;42.1;66.9;0.0;0.0;0.0;9.17;230;21.03;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-10;37.9;64.9;0.0;0.0;0.0;14.09;270;33.11;260;46.98;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-02-14;28.0;50.0;0.01;0.0;0.0;5.14;320;14.09;330;21.92;Yes;No;Yes;Yes;No;Yes;No;No;Yes;No;No;No;No;No;No;No;No
2008-02-26;46.9;61.0;0.47;0.0;0.0;8.72;230;23.94;230;31.09;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2008-02-29;26.1;55.9;0.0;0.0;0.0;8.5;180;19.91;210;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-07;46.0;59.0;1.02;0.0;0.0;5.59;250;17.9;250;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-03-09;28.0;52.0;0.0;0.0;0.0;5.14;300;14.09;280;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-11;37.0;64.0;0.0;0.0;0.0;5.82;220;12.08;230;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-13;37.0;75.9;0.0;0.0;0.0;6.93;220;17.0;220;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-16;46.9;63.0;0.01;0.0;0.0;7.83;320;14.99;350;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-03-21;33.1;66.9;0.0;0.0;0.0;6.71;210;16.11;210;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-03-27;46.9;77.0;0.0;0.0;0.0;13.42;230;25.95;240;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-04;45.0;73.0;0.39;0.0;0.0;7.16;240;21.92;230;27.96;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;Yes;Yes;No;No
2008-04-08;46.9;64.0;0.0;0.0;0.0;8.72;50;14.99;20;17.0;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-04-09;51.1;71.1;0.0;0.0;0.0;3.58;50;12.08;150;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-12;57.0;75.9;0.06;0.0;0.0;15.21;230;27.96;240;36.01;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-04-15;37.9;61.0;0.0;0.0;0.0;8.5;20;21.92;40;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-18;46.0;86.0;0.0;0.0;0.0;5.14;220;14.99;220;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-04-20;48.0;73.9;0.43;0.0;0.0;4.25;270;25.05;280;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-04-27;63.0;79.0;1.16;0.0;0.0;5.82;80;14.99;80;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-04-28;55.9;71.1;0.68;0.0;0.0;8.72;230;29.08;230;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-05-01;48.0;78.1;0.0;0.0;0.0;10.96;230;21.03;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-02;57.0;81.0;0.0;0.0;0.0;13.2;230;23.04;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-05-09;63.0;82.0;0.43;0.0;0.0;10.29;200;23.94;200;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-05-18;53.1;79.0;0.57;0.0;0.0;10.51;220;25.95;290;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-05-19;52.0;75.0;0.0;0.0;0.0;6.26;250;19.91;310;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-04;72.0;93.9;0.0;0.0;0.0;10.51;220;21.92;240;25.95;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-06-11;73.9;93.0;0.0;0.0;0.0;8.5;50;19.91;120;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-06-17;68.0;90.0;0.0;0.0;0.0;5.59;280;16.11;350;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-06-20;63.0;91.0;0.0;0.0;0.0;5.14;220;23.04;200;27.96;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2008-06-23;66.9;89.1;0.01;0.0;0.0;3.8;280;16.11;300;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-06-25;62.1;95.0;0.0;0.0;0.0;5.14;220;17.0;200;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-11;72.0;87.1;0.03;0.0;0.0;3.58;90;14.09;30;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2008-07-15;66.0;87.1;0.0;0.0;0.0;6.26;40;14.09;40;17.9;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2008-07-16;64.9;88.0;0.0;0.0;0.0;4.47;50;14.99;40;19.91;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-07-25;63.0;86.0;0.0;0.0;0.0;1.57;150;8.95;130;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-07-28;70.0;93.0;0.0;0.0;0.0;2.91;100;8.95;110;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-01;73.0;93.9;0.0;0.0;0.0;3.13;300;12.08;320;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-02;71.1;95.0;0.1;0.0;0.0;4.25;320;17.9;320;25.05;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2008-08-05;72.0;96.1;0.0;0.0;0.0;2.46;290;8.95;310;12.97;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-06;73.0;96.1;0.0;0.0;0.0;3.8;310;14.09;320;17.0;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2008-08-09;64.0;89.1;0.0;0.0;0.0;3.8;50;14.09;50;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-11;64.9;86.0;0.0;0.0;0.0;5.14;310;12.97;320;17.9;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-15;66.0;91.0;0.36;0.0;0.0;3.58;170;17.0;170;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-08-16;66.9;86.0;0.0;0.0;0.0;3.13;40;10.07;130;14.09;Yes;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;Yes;No;No
2008-08-25;69.1;88.0;0.0;0.0;0.0;6.04;230;12.97;230;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-08-26;72.0;81.0;0.07;0.0;0.0;5.82;80;14.99;90;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-08-30;70.0;91.0;0.64;0.0;0.0;4.47;60;29.97;60;38.03;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;Yes;Yes;No;Yes;No
2008-09-01;64.9;86.0;0.0;0.0;0.0;4.47;40;12.97;90;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-07;69.1;89.1;0.0;0.0;0.0;2.01;40;8.95;40;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-08;66.9;90.0;0.0;0.0;0.0;3.13;130;12.08;170;14.99;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-14;73.0;91.0;0.0;0.0;0.0;12.3;230;21.92;230;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-22;60.1;80.1;0.0;0.0;0.0;4.92;30;14.09;30;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-09-23;59.0;75.9;0.0;0.0;0.0;10.29;40;21.92;40;25.95;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2008-09-29;64.0;82.0;0.0;0.0;0.0;2.68;40;12.97;40;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-09-30;62.1;81.0;0.01;0.0;0.0;2.68;310;12.97;310;17.9;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2008-10-02;46.9;70.0;0.0;0.0;0.0;2.91;290;12.97;300;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-04;48.9;79.0;0.0;0.0;0.0;1.79;200;8.05;250;10.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-07;55.9;71.1;0.0;0.0;0.0;6.71;90;12.97;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-08;52.0;73.9;0.0;0.0;0.0;6.04;170;12.97;180;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-10-18;51.1;62.1;0.3;0.0;0.0;9.62;40;17.0;30;21.92;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-10-23;39.0;60.1;0.0;0.0;0.0;6.26;110;14.09;80;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-01;37.9;77.0;0.0;0.0;0.0;1.79;230;8.95;200;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-09;37.0;66.0;0.0;0.0;0.0;1.57;30;10.07;360;14.09;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-20;28.0;57.0;0.0;0.0;0.0;6.49;270;16.11;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-21;28.0;44.1;0.05;0.39;0.0;7.83;300;19.91;310;27.96;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2008-11-25;30.9;54.0;0.18;0.0;0.0;8.05;280;21.03;290;29.97;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-11-26;26.1;54.0;0.0;0.0;0.0;3.8;280;10.96;320;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-28;39.0;68.0;0.0;0.0;0.0;3.13;260;10.07;270;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-11-29;39.0;50.0;0.04;0.0;0.0;7.61;80;16.11;80;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;No;No
2008-12-05;28.0;52.0;0.0;0.0;0.0;4.7;350;12.97;360;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-08;21.9;48.0;0.0;0.0;0.0;3.8;150;8.95;140;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-11;57.0;69.1;1.4;0.0;0.0;10.29;220;27.96;190;34.9;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2008-12-14;28.0;57.0;0.0;0.0;0.0;2.24;160;12.08;160;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-16;44.1;61.0;0.02;0.0;0.0;7.16;50;21.03;40;27.96;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2008-12-21;35.1;60.1;0.6;0.0;0.0;9.84;250;25.05;280;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-24;37.9;66.9;0.0;0.0;0.0;7.38;210;25.05;200;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2008-12-25;37.9;66.0;0.31;0.0;0.0;3.8;220;23.94;210;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2008-12-28;57.0;73.9;0.23;0.0;0.0;12.75;220;27.96;220;31.99;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-01-04;43.0;55.9;0.62;0.0;0.0;4.03;230;12.08;250;14.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2009-01-12;30.0;48.0;0.0;0.0;0.0;3.58;360;12.97;30;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-15;21.9;44.1;0.0;0.0;0.0;7.61;360;14.09;30;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-18;32.0;41.0;0.0;0.0;0.0;10.51;210;17.0;220;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-01-21;12.9;35.1;0.0;0.0;2.01;4.7;240;12.97;270;17.0;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-01-22;21.9;48.9;0.0;0.0;0.0;5.82;230;14.09;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-01-24;36.0;57.0;0.0;0.0;0.0;5.59;30;12.08;30;14.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-02-05;19.0;34.0;0.0;0.0;0.0;6.04;300;14.09;340;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-07;30.9;71.1;0.0;0.0;0.0;6.71;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-13;41.0;68.0;0.0;0.0;0.0;6.93;290;21.92;320;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-02-22;30.9;50.0;0.01;0.0;0.0;10.96;270;21.92;300;33.11;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-02-25;25.0;55.9;0.0;0.0;0.0;3.8;200;12.08;210;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-09;55.0;84.0;0.0;0.0;0.0;8.72;270;19.91;270;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-16;46.9;51.1;0.41;0.0;0.0;3.8;80;12.08;80;14.09;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-03-19;45.0;75.9;0.64;0.0;0.0;10.07;310;21.03;310;33.11;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-03-22;30.9;66.9;0.0;0.0;0.0;3.36;210;10.07;170;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-03-24;41.0;57.9;0.0;0.0;0.0;8.28;90;16.11;80;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-06;48.0;71.1;0.46;0.0;0.0;11.18;280;19.91;290;31.09;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-04-22;46.9;64.9;0.0;0.0;0.0;8.28;300;29.08;300;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-04-24;52.0;89.1;0.0;0.0;0.0;6.93;200;16.11;200;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-04;66.9;87.1;0.29;0.0;0.0;14.54;220;25.95;220;31.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-05-07;66.0;84.0;0.1;0.0;0.0;9.4;230;19.91;230;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-05-10;63.0;80.1;0.0;0.0;0.0;3.36;280;10.07;310;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-20;44.1;79.0;0.0;0.0;0.0;7.61;100;14.09;100;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-21;60.1;82.0;0.0;0.0;0.0;6.71;80;14.99;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-05-28;68.0;86.0;0.65;0.0;0.0;5.82;240;25.95;240;34.9;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2009-06-05;64.9;80.1;0.13;0.0;0.0;7.38;200;17.9;190;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;Yes;No;Yes;No
2009-06-09;66.0;93.9;0.82;0.0;0.0;7.16;40;23.04;40;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2009-06-12;66.9;91.0;0.0;0.0;0.0;6.04;260;14.99;290;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-06-25;64.0;95.0;0.0;0.0;0.0;2.24;260;10.07;260;14.09;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-06-28;63.0;91.9;0.0;0.0;0.0;4.03;240;14.09;280;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-05;70.0;82.0;0.03;0.0;0.0;2.91;50;8.95;80;10.07;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;Yes;No;Yes;No
2009-07-07;64.0;91.0;0.0;0.0;0.0;2.68;50;8.95;50;8.95;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-16;73.9;91.0;0.0;0.0;0.0;8.95;230;19.91;110;27.96;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-07-18;71.1;86.0;0.06;0.0;0.0;4.03;360;12.08;130;23.94;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-07-21;68.0;88.0;0.0;0.0;0.0;3.13;170;8.05;170;10.07;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2009-07-25;66.9;96.1;0.0;0.0;0.0;4.92;200;25.05;90;40.04;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2009-07-28;69.1;95.0;0.0;0.0;0.0;6.71;190;27.96;190;36.01;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-08-01;73.0;91.9;0.0;0.0;0.0;5.82;220;10.07;;;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-08-10;72.0;99.0;0.0;0.0;0.0;6.71;240;17.9;220;23.04;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2009-08-18;72.0;96.1;0.0;0.0;0.0;7.61;230;17.9;250;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-01;61.0;79.0;0.0;0.0;0.0;9.4;40;21.03;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-02;57.0;79.0;0.0;0.0;0.0;8.5;40;17.0;40;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-05;57.0;89.1;0.0;0.0;0.0;3.36;70;12.08;150;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-12;60.1;87.1;0.0;0.0;0.0;3.13;270;12.08;30;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-16;66.9;79.0;0.05;0.0;0.0;4.7;40;14.09;40;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-09-20;62.1;78.1;0.0;0.0;0.0;6.93;80;14.99;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-09-28;55.0;86.0;0.22;0.0;0.0;8.28;290;25.95;260;42.95;Yes;No;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No
2009-10-07;57.9;82.9;0.0;0.0;0.0;9.17;280;19.91;280;31.09;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-10-09;55.9;82.9;0.0;0.0;0.0;10.29;220;17.9;210;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-10-12;53.1;60.1;0.19;0.0;0.0;5.14;150;10.07;340;14.99;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2009-10-13;52.0;77.0;0.0;0.0;0.0;2.91;320;8.95;350;14.99;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2009-10-25;46.9;60.1;0.0;0.0;0.0;5.14;40;12.97;30;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-07;33.1;66.0;0.0;0.0;0.0;5.59;240;16.11;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-08;42.1;75.9;0.0;0.0;0.0;2.91;270;8.05;90;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-11-12;46.0;48.0;0.58;0.0;0.0;14.09;20;21.92;30;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-11-25;46.9;55.9;0.01;0.0;0.0;2.68;230;8.95;230;12.08;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-11-28;28.9;57.9;0.0;0.0;0.0;3.36;230;12.08;330;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2009-12-04;34.0;55.9;0.0;0.0;0.0;2.24;60;10.07;40;12.97;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2009-12-13;36.0;42.1;0.29;0.0;0.0;2.91;250;8.95;90;12.97;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2009-12-26;39.0;53.1;0.0;0.0;0.0;6.71;320;10.07;320;10.07;Yes;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2009-12-28;30.9;46.0;0.0;0.0;0.0;8.05;260;16.11;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-02;21.9;32.0;0.0;0.0;0.0;9.62;300;19.91;290;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-11;15.1;45.0;0.0;0.0;0.0;3.8;230;16.11;240;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-13;19.0;46.0;0.0;0.0;0.0;1.79;250;8.95;240;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-15;28.0;63.0;0.0;0.0;0.0;2.01;240;8.05;230;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-17;45.0;68.0;1.46;0.0;0.0;7.38;110;21.03;110;27.96;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-01-21;37.0;41.0;0.65;0.0;0.0;9.84;60;17.0;40;21.92;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;Yes;No;No;No
2010-01-28;30.0;63.0;0.0;0.0;0.0;5.82;270;17.0;280;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-01-30;19.0;28.0;0.61;3.58;2.99;10.29;40;21.92;30;27.96;Yes;No;Yes;Yes;No;Yes;No;No;Yes;No;No;Yes;No;No;No;No;No
2010-02-06;30.0;37.0;0.02;0.0;0.0;6.26;40;12.97;20;19.91;Yes;No;Yes;Yes;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No
2010-02-18;28.0;50.0;0.0;0.0;0.0;6.71;300;16.11;290;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-23;39.9;53.1;0.0;0.0;0.0;2.68;10;8.95;340;12.97;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-02-25;30.0;42.1;0.0;0.12;0.0;8.5;300;17.9;320;29.08;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-03-04;36.0;51.1;0.0;0.0;0.0;5.59;310;14.09;310;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-06;28.9;55.9;0.0;0.0;0.0;2.46;10;14.09;10;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-07;24.1;63.0;0.0;0.0;0.0;2.24;230;12.97;250;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-18;45.0;68.0;0.0;0.0;0.0;2.01;30;14.09;20;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-22;44.1;66.0;0.0;0.0;0.0;14.54;230;25.95;220;31.99;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-03-23;39.0;66.0;0.01;0.0;0.0;11.63;270;21.92;290;29.97;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-03-24;39.0;73.9;0.0;0.0;0.0;4.7;270;14.99;270;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-03-25;48.9;75.9;0.0;0.0;0.0;9.62;220;21.03;230;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-03-27;32.0;57.9;0.0;0.0;0.0;6.04;120;14.99;120;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-09;46.0;66.0;0.61;0.0;0.0;5.82;250;19.91;300;25.05;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-04-13;51.1;79.0;0.0;0.0;0.0;6.93;60;21.03;80;25.95;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-04-19;39.9;68.0;0.0;0.0;0.0;3.36;310;12.97;360;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-22;44.1;75.0;0.0;0.0;0.0;2.91;280;12.97;280;17.9;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-04-27;50.0;68.0;0.0;0.0;0.0;7.61;290;17.0;250;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-03;72.0;78.1;0.0;0.0;0.0;11.41;230;21.03;220;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-05-09;48.9;68.0;0.0;0.0;0.0;6.93;270;17.0;340;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-05-23;64.9;80.1;1.08;0.0;0.0;3.36;240;14.99;100;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2010-05-25;64.0;78.1;0.0;0.0;0.0;7.38;40;17.9;40;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-06-04;70.0;91.9;0.0;0.0;0.0;7.61;230;17.9;220;23.04;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2010-06-05;73.0;91.9;0.0;0.0;0.0;7.83;230;17.0;240;21.92;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-06-13;72.0;96.1;1.23;0.0;0.0;5.59;250;23.04;240;31.09;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;No;No
2010-06-16;73.0;91.0;0.16;0.0;0.0;4.92;250;19.91;240;23.94;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;Yes;No;Yes;No
2010-06-23;73.0;97.0;0.05;0.0;0.0;4.7;300;17.0;320;29.97;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2010-06-24;73.0;99.0;0.0;0.0;0.0;5.14;230;17.9;230;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-01;64.0;81.0;0.0;0.0;0.0;5.37;40;14.99;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-02;57.9;82.9;0.0;0.0;0.0;3.8;50;14.99;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-06;66.0;100.9;0.0;0.0;0.0;3.8;230;12.97;210;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-07-08;73.0;99.0;0.01;0.0;0.0;4.7;100;16.11;100;19.91;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2010-07-12;73.9;87.1;0.14;0.0;0.0;6.49;170;14.99;170;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-07-14;72.0;91.9;0.23;0.0;0.0;3.36;30;12.08;40;14.99;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-07-16;77.0;97.0;0.0;0.0;0.0;9.62;230;17.0;230;21.92;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;Yes;No
2010-07-23;75.9;100.0;0.0;0.0;0.0;5.82;230;17.0;240;23.04;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-07-29;73.9;97.0;0.46;0.0;0.0;5.59;40;21.92;40;25.95;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2010-08-06;72.0;91.9;0.0;0.0;0.0;3.8;260;12.08;270;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-08-12;75.9;97.0;0.05;0.0;0.0;4.25;60;12.97;250;17.0;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2010-08-27;66.9;91.0;0.0;0.0;0.0;2.91;90;8.95;80;12.97;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;Yes;No
2010-09-02;66.0;89.1;0.0;0.0;0.0;4.7;50;14.09;40;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-09;57.9;91.9;0.0;0.0;0.0;3.58;280;14.09;270;21.03;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2010-09-16;68.0;93.9;0.0;0.0;0.0;11.86;230;25.05;250;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-04;53.1;68.0;0.0;0.0;0.0;4.92;40;16.11;360;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-10;52.0;87.1;0.0;0.0;0.0;2.01;230;8.05;250;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-19;54.0;79.0;0.0;0.0;0.0;3.13;220;8.95;220;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-23;39.0;73.9;0.0;0.0;0.0;2.68;240;12.97;230;16.11;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No
2010-10-26;64.0;81.0;0.53;0.0;0.0;10.07;190;17.9;190;23.94;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;Yes;No;Yes;No;No;No
2010-10-28;61.0;82.0;0.0;0.0;0.0;6.71;230;14.99;220;17.9;No;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-10-31;44.1;75.0;0.0;0.0;0.0;4.7;50;14.09;40;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-04;48.0;54.0;0.72;0.0;0.0;2.24;340;8.05;340;14.09;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;Yes;Yes;No;No
2010-11-06;37.9;53.1;0.16;0.0;0.0;3.36;30;16.11;40;21.92;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-11-08;30.9;66.9;0.0;0.0;0.0;3.13;270;16.11;270;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-14;32.0;70.0;0.0;0.0;0.0;2.01;190;8.05;200;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-20;39.9;69.1;0.0;0.0;0.0;3.8;230;16.11;250;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-11-22;43.0;73.0;0.0;0.0;0.0;4.25;240;16.11;230;21.92;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No
2010-11-25;41.0;61.0;0.0;0.0;0.0;4.03;220;10.07;220;14.09;Yes;Yes;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No
2010-11-30;48.9;72.0;0.01;0.0;0.0;11.86;170;25.05;170;33.11;Yes;No;No;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No
2010-12-15;16.0;37.0;0.0;0.0;0.0;5.59;280;12.97;280;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-20;25.0;42.1;0.0;0.0;0.0;4.03;280;14.09;290;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2010-12-26;26.1;33.1;0.5;6.69;2.99;7.16;10;16.11;30;25.95;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2010-12-28;19.0;46.9;0.0;0.0;2.01;4.7;260;14.99;300;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-03;26.1;45.0;0.0;0.0;0.0;2.01;40;10.07;30;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-07;30.9;46.0;0.0;0.0;0.0;5.37;230;17.9;230;23.04;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-10;26.1;34.0;0.12;0.31;0.0;4.7;40;14.09;40;17.0;Yes;No;No;Yes;No;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No
2011-01-11;28.0;32.0;0.08;0.0;0.0;5.82;240;12.97;250;19.91;Yes;No;No;Yes;No;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No
2011-01-23;16.0;46.0;0.0;0.0;0.0;2.24;290;10.07;270;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-01-25;30.0;51.1;0.17;0.0;0.0;2.91;90;14.09;90;17.9;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-01-31;35.1;46.9;0.0;0.0;0.0;9.4;50;19.91;40;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-03;32.0;44.1;0.0;0.0;0.0;5.14;360;12.08;10;17.9;No;No;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2011-02-04;33.1;37.0;0.45;0.0;0.0;3.13;80;8.95;70;12.97;Yes;No;Yes;Yes;No;Yes;No;Yes;No;No;No;No;No;No;No;No;No
2011-02-10;26.1;46.0;0.03;0.39;0.0;4.25;30;14.09;330;19.91;Yes;No;Yes;No;No;Yes;No;No;Yes;No;No;No;No;No;No;No;No
2011-02-17;39.9;71.1;0.0;0.0;0.0;7.61;210;17.9;220;25.05;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-02-22;33.1;64.9;0.0;0.0;0.0;9.17;20;21.92;20;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-01;39.9;57.0;0.0;0.0;0.0;9.17;40;23.94;40;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-07;34.0;54.0;0.0;0.0;0.0;5.82;50;16.11;60;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-09;39.0;61.0;0.23;0.0;0.0;8.72;130;17.9;120;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-15;42.1;55.9;0.1;0.0;0.0;8.05;90;16.11;80;21.03;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-25;42.1;57.0;0.0;0.0;0.0;3.58;360;12.08;30;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-03-26;39.0;50.0;0.34;0.0;0.0;8.05;60;14.09;40;19.91;Yes;No;Yes;Yes;No;No;No;Yes;No;No;Yes;No;No;No;No;No;No
2011-03-29;28.9;62.1;0.0;0.0;0.0;1.34;230;10.07;260;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-09;48.0;57.0;1.04;0.0;0.0;5.59;150;23.04;160;29.97;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-04-11;60.1;84.0;0.0;0.0;0.0;11.63;210;23.04;220;29.97;Yes;No;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-04-14;43.0;75.0;0.0;0.0;0.0;2.01;50;10.07;310;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-15;48.9;75.9;0.0;0.0;0.0;9.62;110;19.91;130;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-04-18;50.0;80.1;0.0;0.0;0.0;10.07;220;21.92;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-05-04;50.0;71.1;0.67;0.0;0.0;5.82;340;17.0;330;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-05-29;70.0;89.1;0.0;0.0;0.0;4.92;250;10.07;220;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-01;70.0;95.0;0.0;0.0;0.0;2.46;80;8.05;150;14.09;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-06-07;64.0;93.0;0.0;0.0;0.0;3.13;240;12.08;270;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-15;57.9;82.9;0.0;0.0;0.0;3.58;40;12.97;30;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-19;66.0;91.9;0.0;0.0;0.0;5.59;280;12.97;290;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-21;71.1;95.0;0.0;0.0;0.0;4.92;170;17.0;170;23.94;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-06-22;72.0;96.1;0.0;0.0;0.0;9.4;230;23.04;250;34.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-23;73.9;91.9;0.0;0.0;0.0;11.18;240;25.95;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-06-28;72.0;99.0;0.29;0.0;0.0;8.05;240;25.05;80;29.08;Yes;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-03;72.0;97.0;0.0;0.0;0.0;8.5;230;16.11;210;25.95;No;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-04;70.0;99.0;1.38;0.0;0.0;9.17;330;17.9;290;29.08;Yes;No;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-07-05;70.0;91.9;0.0;0.0;0.0;3.8;220;14.99;230;17.9;Yes;No;Yes;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-07;70.0;93.9;0.06;0.0;0.0;5.82;260;16.11;200;25.05;Yes;No;No;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-07-18;68.0;93.9;0.0;0.0;0.0;6.26;230;12.97;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-07-26;73.0;93.0;0.0;0.0;0.0;4.7;110;12.97;130;16.11;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2011-08-03;73.0;98.1;0.0;0.0;0.0;4.7;230;17.9;220;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-10;70.0;93.9;0.0;0.0;0.0;3.58;230;16.11;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-11;71.1;89.1;0.0;0.0;0.0;2.46;140;8.95;170;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-14;64.9;87.1;1.08;0.0;0.0;5.37;260;23.94;280;36.91;Yes;No;Yes;Yes;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2011-08-17;64.0;89.1;0.0;0.0;0.0;2.91;110;12.08;140;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-18;69.1;89.1;0.0;0.0;0.0;3.36;180;12.08;180;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-22;70.0;89.1;0.0;0.0;0.0;5.37;230;14.09;230;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-25;72.0;91.0;0.0;0.0;0.0;7.61;220;16.11;210;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-28;69.1;91.9;0.0;0.0;0.0;4.92;270;14.09;280;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-08-29;66.9;90.0;1.36;0.0;0.0;4.7;30;25.05;30;34.9;Yes;Yes;No;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2011-08-31;62.1;82.9;0.0;0.0;0.0;4.25;60;8.95;120;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-03;69.1;87.1;0.0;0.0;0.0;3.13;160;8.95;180;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-10;64.0;87.1;0.0;0.0;0.0;1.57;360;8.05;330;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-09-14;66.0;89.1;0.0;0.0;0.0;2.46;230;12.08;220;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-01;46.9;64.0;0.0;0.0;0.0;6.71;260;16.11;320;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-03;42.1;68.0;0.0;0.0;0.0;4.03;290;12.97;300;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-11;62.1;66.9;0.32;0.0;0.0;8.05;50;21.03;40;27.96;No;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-10-15;46.9;73.9;0.0;0.0;0.0;4.7;270;17.0;280;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-16;44.1;77.0;0.0;0.0;0.0;6.26;230;17.0;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-22;43.0;66.9;0.0;0.0;0.0;2.01;40;8.95;50;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-27;54.0;77.0;0.0;0.0;0.0;10.74;230;21.03;220;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-29;34.0;54.0;0.87;0.0;0.0;5.37;320;16.11;320;25.95;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-10-31;34.0;55.9;0.27;0.0;0.0;3.13;40;10.07;40;14.09;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-05;37.9;55.0;0.0;0.0;0.0;8.28;60;17.9;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-08;39.9;70.0;0.0;0.0;0.0;0.89;50;8.05;40;12.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-16;62.1;79.0;0.0;0.0;0.0;11.63;220;21.92;210;29.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-11-17;34.0;62.1;0.54;0.0;0.0;6.93;40;23.04;30;29.97;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-11-24;37.9;64.0;0.0;0.0;0.0;0.89;340;8.05;20;10.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-11-26;39.0;70.0;0.0;0.0;0.0;4.92;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-04;30.9;64.0;0.0;0.0;0.0;0.67;170;6.93;90;8.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-11;30.0;46.9;0.0;0.0;0.0;6.26;70;16.11;90;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-14;39.0;60.1;0.0;0.0;0.0;2.24;150;6.93;170;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-15;43.0;68.0;0.0;0.0;0.0;8.95;230;25.05;230;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-21;55.0;64.9;0.25;0.0;0.0;9.62;210;21.03;200;29.08;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2011-12-23;45.0;68.0;0.0;0.0;0.0;7.61;200;25.95;200;36.01;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-26;34.0;54.0;0.0;0.0;0.0;3.36;50;12.08;10;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2011-12-28;37.9;53.1;0.0;0.0;0.0;6.49;270;17.0;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-05;30.0;55.0;0.0;0.0;0.0;3.58;280;14.09;240;17.9;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-19;27.0;48.9;0.0;0.0;0.0;6.26;240;14.99;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-22;32.0;37.0;0.0;0.0;0.0;8.05;40;17.9;40;23.04;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-01-23;36.0;53.1;0.0;0.0;0.0;4.03;180;8.95;190;12.97;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-01-27;46.0;69.1;0.22;0.0;0.0;11.18;230;31.09;220;40.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-02;48.9;69.1;0.02;0.0;0.0;6.71;300;14.09;320;23.94;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-02-04;37.9;55.0;0.23;0.0;0.0;4.03;230;14.09;230;16.11;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-13;21.9;52.0;0.0;0.0;0.0;3.36;230;14.99;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-02-19;33.1;54.0;0.71;0.91;0.0;10.51;40;23.04;50;31.09;Yes;No;Yes;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2012-02-20;30.0;48.9;0.0;0.0;0.98;5.14;50;17.0;10;25.05;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No
2012-02-27;33.1;48.9;0.24;0.0;0.0;2.01;250;8.95;240;12.08;Yes;Yes;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-02-29;48.0;71.1;0.05;0.0;0.0;9.84;230;25.05;230;31.99;Yes;No;Yes;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-03-07;34.0;70.0;0.0;0.0;0.0;7.16;220;19.91;210;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-12;42.1;73.0;0.0;0.0;0.0;8.28;220;19.91;240;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-26;53.1;77.0;0.03;0.0;0.0;5.82;40;17.9;40;23.94;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-29;55.9;82.9;0.0;0.0;0.0;6.04;280;17.0;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-03-31;59.0;75.9;0.27;0.0;0.0;6.26;80;17.9;80;21.92;No;No;Yes;Yes;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2012-04-06;39.9;63.0;0.05;0.0;0.0;6.93;40;19.91;20;27.96;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-21;55.0;80.1;0.24;0.0;0.0;5.82;20;14.99;200;19.91;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-22;48.0;62.1;0.82;0.0;0.0;8.28;50;17.0;30;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-04-23;39.9;51.1;0.01;0.0;0.0;6.71;290;17.0;290;29.08;No;No;No;Yes;No;No;No;Yes;No;No;No;No;No;No;No;No;No
2012-04-25;39.9;68.0;0.03;0.0;0.0;6.71;230;17.9;240;25.05;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-11;46.9;73.9;0.0;0.0;0.0;2.46;40;12.97;30;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-19;54.0;77.0;0.0;0.0;0.0;6.04;40;17.9;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-26;66.0;86.0;0.0;0.0;0.0;6.93;80;14.99;80;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-28;72.0;90.0;0.0;0.0;0.0;4.7;200;23.04;200;29.08;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-05-30;64.0;82.0;0.39;0.0;0.0;4.7;30;17.0;30;23.04;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-04;61.0;82.9;0.0;0.0;0.0;4.92;280;14.99;290;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-06;57.0;73.9;0.04;0.0;0.0;4.47;100;12.97;90;17.0;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-07;54.0;81.0;0.0;0.0;0.0;1.12;250;8.05;240;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-08;57.0;84.0;0.0;0.0;0.0;2.24;40;12.08;20;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-09;57.0;89.1;0.0;0.0;0.0;4.7;230;14.99;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-11;71.1;84.0;1.06;0.0;0.0;7.38;200;17.0;210;23.94;Yes;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-14;57.0;79.0;0.0;0.0;0.0;6.71;50;17.0;40;21.03;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No
2012-06-20;69.1;93.9;0.0;0.0;0.0;3.13;160;12.08;150;14.09;Yes;No;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-23;43.0;57.9;0.0;0.0;0.0;8.5;50;17.0;60;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-26;57.0;75.0;0.13;0.0;0.0;10.51;230;25.95;220;31.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-03-27;39.9;66.0;0.18;0.0;0.0;8.28;50;23.94;40;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-03-31;35.1;73.9;0.0;0.0;0.0;9.17;230;29.08;260;36.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-05;33.1;68.0;0.0;0.0;0.0;4.7;230;16.11;200;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-06;52.0;75.9;0.0;0.0;0.0;7.61;220;18.12;210;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-10;64.9;84.0;0.0;0.0;0.0;13.65;230;29.97;230;36.91;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2015-04-13;50.0;80.1;0.0;0.0;0.0;6.04;180;14.99;160;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-22;44.1;77.0;0.0;0.0;0.0;9.62;230;25.05;230;35.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-04-23;48.9;68.0;0.0;0.0;0.0;6.71;250;19.91;230;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-07;57.9;82.0;0.0;0.0;0.0;7.61;40;18.12;30;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-08;57.0;81.0;0.0;0.0;0.0;7.83;80;18.12;90;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-11;69.1;87.1;0.14;0.0;0.0;8.5;190;19.91;190;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-12;68.0;87.1;0.0;0.0;0.0;8.05;240;17.0;240;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-05-26;64.9;89.1;0.0;0.0;0.0;8.05;170;18.12;200;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-02;66.9;82.0;0.15;0.0;0.0;3.8;260;10.07;240;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-03;63.0;68.0;0.02;0.0;0.0;7.16;50;14.99;50;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-05;60.1;78.1;0.01;0.0;0.0;3.58;90;10.07;90;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-08;64.9;89.1;0.0;0.0;0.0;11.18;230;21.03;230;25.05;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-10;66.9;88.0;0.25;0.0;0.0;4.47;70;12.08;300;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-12;71.1;90.0;0.0;0.0;0.0;8.05;230;18.12;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-15;72.0;99.0;0.0;0.0;0.0;3.13;250;10.07;30;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-19;72.0;95.0;0.23;0.0;0.0;4.7;100;14.09;110;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-21;73.0;95.0;0.0;0.0;0.0;6.49;230;14.99;260;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-06-27;70.0;88.0;0.99;0.0;0.0;8.28;210;18.12;210;29.97;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-06-29;60.1;88.0;0.0;0.0;0.0;3.8;50;12.97;120;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-05;69.1;90.0;0.79;0.0;0.0;6.04;240;29.08;230;44.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-07-07;70.0;91.0;0.0;0.0;0.0;6.26;230;14.09;240;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-10;73.0;93.9;0.0;0.0;0.0;4.92;250;12.97;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-07-18;73.9;93.0;0.02;0.0;0.0;7.61;190;14.09;320;21.03;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2015-08-03;69.1;95.0;0.0;0.0;0.0;6.26;220;14.99;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-09;64.0;89.1;0.0;0.0;0.0;2.01;110;8.95;160;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-14;64.9;88.0;0.0;0.0;0.0;3.36;80;12.97;140;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-27;64.9;84.0;0.0;0.0;0.0;6.49;60;14.99;30;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-28;60.1;87.1;0.0;0.0;0.0;4.25;80;12.97;100;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-29;60.1;86.0;0.0;0.0;0.0;2.01;110;12.08;140;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-08-31;66.9;77.0;1.75;0.0;0.0;2.24;30;18.12;20;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-03;69.1;91.0;0.0;0.0;0.0;0.45;340;6.93;20;8.95;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-04;68.0;91.9;0.0;0.0;0.0;2.68;50;23.04;50;29.08;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2015-09-23;63.0;77.0;0.0;0.0;0.0;9.17;50;17.0;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-09-26;64.0;69.1;1.02;0.0;0.0;12.3;50;18.12;50;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-05;55.9;60.1;0.12;0.0;0.0;11.18;40;18.12;30;29.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-06;51.1;73.0;0.0;0.0;0.0;5.14;40;16.11;50;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-12;51.1;78.1;0.0;0.0;0.0;2.91;230;12.97;220;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-19;32.0;60.1;0.0;0.0;0.0;1.79;60;10.07;50;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-20;34.0;70.0;0.0;0.0;0.0;2.91;250;10.07;240;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-26;52.0;64.0;0.0;0.0;0.0;9.84;50;18.12;40;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-10-28;63.0;73.0;0.46;0.0;0.0;10.29;170;17.0;170;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-06;64.9;75.9;0.0;0.0;0.0;9.62;240;23.94;210;29.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-16;36.0;64.9;0.0;0.0;0.0;0.67;230;8.05;220;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-20;39.9;62.1;0.0;0.0;0.0;3.13;40;14.99;360;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-11-22;36.0;52.0;0.0;0.0;0.0;3.36;30;12.97;10;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-05;29.1;55.9;0.0;0.0;0.0;3.8;50;14.99;30;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-06;29.1;60.1;0.0;0.0;0.0;1.12;340;6.04;330;8.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-07;41.0;57.9;0.0;0.0;0.0;1.34;220;6.93;140;10.07;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-13;50.0;73.0;0.0;0.0;0.0;2.91;220;10.07;210;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-14;62.1;75.0;0.04;0.0;0.0;10.74;230;23.04;230;29.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2015-12-31;51.1;66.0;0.47;0.0;0.0;4.47;220;14.09;200;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-02;32.0;52.0;0.0;0.0;0.0;2.24;240;8.95;250;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-04;29.1;43.0;0.0;0.0;0.0;4.7;40;16.11;10;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-08;39.9;46.9;0.04;0.0;0.0;4.03;40;12.08;50;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-09;45.0;54.0;0.18;0.0;0.0;5.82;70;21.03;80;27.96;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-14;27.1;60.1;0.0;0.0;0.0;5.82;230;16.11;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-17;29.1;42.1;0.13;0.0;0.0;4.47;30;12.97;;;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-27;39.9;52.0;0.0;0.0;0.0;4.92;40;14.09;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-01-28;34.0;45.0;0.0;0.0;0.0;2.01;120;6.93;130;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-02;48.9;60.1;0.0;0.0;0.0;8.28;120;18.12;110;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-06;26.2;48.0;0.0;0.0;0.0;2.01;30;8.95;150;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-10;24.3;39.9;0.0;0.0;0.0;7.38;300;16.11;290;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-02-15;23.2;35.1;0.33;0.2;0.0;4.03;60;12.08;140;14.99;Yes;Yes;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2016-03-22;32.0;66.0;0.0;0.0;0.0;6.71;220;23.04;220;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-03-25;64.0;75.9;0.04;0.0;0.0;9.84;220;21.03;240;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-07;53.1;69.1;0.09;0.0;0.0;14.32;230;31.99;230;38.92;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-04-08;41.0;63.0;0.0;0.0;0.0;4.92;250;16.11;250;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-20;57.0;75.0;0.0;0.0;0.0;9.4;80;19.91;80;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-04-28;64.0;84.9;0.24;0.0;0.0;5.59;210;23.94;210;33.11;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-01;59.0;77.0;0.18;0.0;0.0;7.83;190;14.99;210;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-03;63.0;79.0;0.44;0.0;0.0;4.47;210;14.99;210;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;Yes;No;No;No
2016-05-08;60.1;82.0;0.0;0.0;0.0;6.71;290;17.0;290;27.96;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-09;57.9;81.0;0.12;0.0;0.0;1.34;240;6.93;240;10.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-15;48.0;66.9;0.0;0.0;0.0;5.14;250;17.0;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-23;51.1;68.0;0.02;0.0;0.0;2.68;50;14.09;40;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-05-29;64.9;75.9;1.95;0.0;0.0;5.59;210;14.99;200;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-05-31;70.0;84.9;0.0;0.0;0.0;5.37;60;16.11;40;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-05;70.0;89.1;0.69;0.0;0.0;10.96;210;42.95;220;59.06;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-06-06;71.1;82.0;0.04;0.0;0.0;8.72;230;16.11;230;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-07;66.9;88.0;0.05;0.0;0.0;5.82;320;12.97;260;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-20;55.9;88.0;0.0;0.0;0.0;3.8;240;10.07;240;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-21;66.9;91.0;0.0;0.0;0.0;10.07;230;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-25;71.1;84.9;0.0;0.0;0.0;6.26;50;16.11;60;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-06-28;71.1;78.1;1.25;0.0;0.0;4.7;230;12.08;200;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-05;73.0;95.0;0.42;0.0;0.0;6.71;240;31.09;240;38.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-07;73.0;93.0;0.06;0.0;0.0;7.61;240;23.04;260;31.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-17;68.0;90.0;0.0;0.0;0.0;4.03;210;14.09;220;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-20;70.0;89.1;0.0;0.0;0.0;4.92;40;12.97;90;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-21;70.0;90.0;0.0;0.0;0.0;4.03;150;8.95;120;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-23;72.0;95.0;0.0;0.0;0.0;4.47;210;12.08;220;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-25;77.0;96.1;0.0;0.0;0.0;8.72;220;14.99;210;19.91;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-07-27;75.9;95.0;0.0;0.0;0.0;2.01;40;10.07;350;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-28;73.9;96.1;0.0;0.0;0.0;7.16;250;19.91;240;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-07-31;72.0;96.1;0.13;0.0;0.0;6.93;150;21.92;150;27.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-02;73.0;91.0;0.28;0.0;0.0;4.03;130;14.09;90;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-05;73.0;88.0;0.18;0.0;0.0;3.8;230;12.08;230;14.99;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-08-09;75.0;91.0;0.0;0.0;0.0;5.59;150;19.91;150;25.95;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-08-10;73.0;91.9;0.0;0.0;0.0;5.37;180;12.97;150;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-11;73.9;91.9;0.0;0.0;0.0;4.03;150;12.08;160;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-17;75.0;97.0;0.0;0.0;0.0;7.61;230;27.96;220;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-19;75.0;91.0;0.38;0.0;0.0;2.68;40;12.97;40;14.99;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2016-08-23;64.9;89.1;0.0;0.0;0.0;4.47;80;12.97;80;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-08-28;71.1;90.0;0.0;0.0;0.0;7.61;40;14.99;50;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-03;64.0;81.0;0.44;0.0;0.0;7.83;50;23.04;30;27.96;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-09-04;61.0;82.9;0.0;0.0;0.0;4.25;40;14.99;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-17;66.0;89.1;0.0;0.0;0.0;3.58;120;10.07;150;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-09-19;71.1;79.0;1.3;0.0;0.0;5.59;310;14.09;280;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2016-09-20;71.1;75.0;0.02;0.0;0.0;7.38;30;14.09;20;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-07;64.9;73.9;0.36;0.0;0.0;9.4;90;18.12;100;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-13;48.0;79.0;0.0;0.0;0.0;2.68;250;10.07;240;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-15;52.0;72.0;0.0;0.0;0.0;2.68;50;10.07;130;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-21;55.9;78.1;0.0;0.0;0.0;7.61;320;18.12;310;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-27;46.9;75.0;0.14;0.0;0.0;6.71;220;19.91;230;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-29;48.0;78.1;0.0;0.0;0.0;4.7;240;14.09;250;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-30;55.9;84.0;0.0;0.0;0.0;4.92;280;14.09;300;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-10-31;54.0;71.1;0.0;0.0;0.0;6.04;80;18.12;80;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-02;50.0;79.0;0.0;0.0;0.0;3.36;230;10.07;220;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-07;37.9;64.0;0.0;0.0;0.0;3.8;40;16.11;40;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-15;37.0;64.0;0.0;0.0;0.0;1.79;230;8.95;280;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-16;35.1;69.1;0.0;0.0;0.0;1.34;290;10.07;260;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-11-26;32.0;57.9;0.0;0.0;0.0;4.92;20;14.09;330;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-12-04;41.0;46.9;0.32;0.0;0.0;3.58;60;8.95;80;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-12;37.0;62.1;0.03;0.0;0.0;5.37;230;12.97;230;16.11;Yes;Yes;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2016-12-13;37.9;55.0;0.0;0.0;0.0;2.68;40;10.07;150;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-18;43.0;75.0;0.22;0.0;0.0;11.41;240;25.95;240;34.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-23;29.1;53.1;0.0;0.0;0.0;2.91;100;12.97;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-26;46.9;60.1;0.04;0.0;0.0;4.92;70;12.97;60;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2016-12-28;36.0;60.1;0.0;0.0;0.0;2.91;10;8.95;20;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-07;20.1;32.0;0.6;0.51;0.0;9.62;40;21.03;40;31.99;Yes;No;No;No;No;Yes;Yes;No;No;No;No;No;No;No;No;No;No
2017-01-09;9.1;31.1;0.0;0.0;1.18;2.46;230;8.95;230;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-16;44.1;51.1;0.0;0.0;0.0;4.47;80;12.08;100;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-17;46.9;62.1;0.04;0.0;0.0;8.28;220;12.97;;;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-19;36.0;63.0;0.0;0.0;0.0;1.34;220;8.05;160;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-21;51.1;55.0;0.38;0.0;0.0;3.58;90;12.08;90;14.09;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-25;36.0;73.0;0.0;0.0;0.0;7.61;220;17.0;230;23.94;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-27;30.2;51.1;0.0;0.0;0.0;6.49;250;16.11;250;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-01-29;30.2;54.0;0.02;0.0;0.0;8.05;260;23.04;270;31.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-06;31.1;68.0;0.0;0.0;0.0;4.7;210;12.97;220;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-10;26.2;51.1;0.0;0.0;0.0;6.71;210;21.92;220;25.95;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-02-12;57.9;82.9;0.05;0.0;0.0;11.41;230;25.05;240;33.11;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-02-13;37.0;64.0;0.0;0.0;0.0;7.16;280;14.99;330;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-23;50.0;77.0;0.0;0.0;0.0;3.36;180;12.97;180;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-02-26;37.0;55.9;0.0;0.0;0.0;4.47;250;14.09;280;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-01;59.0;79.0;0.97;0.0;0.0;17.22;230;35.12;230;44.07;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-03-04;25.2;54.0;0.0;0.0;0.0;2.46;270;12.97;280;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-09;37.0;75.0;0.0;0.0;0.0;6.04;230;23.04;240;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-10;41.0;69.1;0.0;0.0;0.0;10.74;300;23.04;310;36.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-11;31.1;50.0;0.0;0.0;0.0;4.47;280;14.09;270;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-22;39.0;64.0;0.0;0.0;0.0;8.28;50;21.03;50;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-03-31;57.9;79.0;0.42;0.0;0.0;10.74;230;25.05;230;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-04-01;48.9;75.0;0.0;0.0;0.0;6.04;20;14.09;330;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-04-05;53.1;78.1;0.32;0.0;0.0;6.71;160;17.0;290;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-04-20;55.9;84.9;0.0;0.0;0.0;5.82;230;14.99;230;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-05-02;60.1;77.0;0.0;0.0;0.0;11.41;240;23.04;250;31.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-03;53.1;79.0;0.0;0.0;0.0;5.14;280;16.11;280;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-08;43.0;71.1;0.0;0.0;0.0;4.7;290;16.11;330;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-10;57.0;82.9;0.45;0.0;0.0;3.8;30;16.11;40;21.92;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-05-12;54.0;61.0;0.07;0.0;0.0;7.61;40;16.11;80;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-15;60.1;84.9;0.0;0.0;0.0;4.7;290;14.09;320;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-16;57.0;87.1;0.0;0.0;0.0;3.58;120;12.97;130;17.0;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-05-21;60.1;75.9;0.0;0.0;0.0;7.61;90;14.09;100;18.12;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2017-05-23;66.9;71.1;0.69;0.0;0.0;4.47;80;12.08;90;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-05-31;68.0;86.0;0.0;0.0;0.0;4.7;140;14.99;130;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-02;61.0;84.9;0.0;0.0;0.0;3.8;40;12.97;40;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-06;64.0;82.9;0.0;0.0;0.0;3.8;40;12.08;340;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-08;55.0;73.0;0.0;0.0;0.0;7.38;40;19.91;40;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-13;66.9;89.1;0.0;0.0;0.0;8.05;240;17.0;240;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-14;66.0;93.0;0.0;0.0;0.0;5.82;50;19.91;50;27.07;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-19;70.0;91.9;0.09;0.0;0.0;11.86;170;25.05;170;31.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-06-26;60.1;84.9;0.0;0.0;0.0;3.36;250;12.08;260;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-27;59.0;82.9;0.0;0.0;0.0;3.8;50;12.97;40;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-06-30;69.1;87.1;0.05;0.0;0.0;7.83;170;17.0;180;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-01;73.0;90.0;0.0;0.0;0.0;9.17;220;17.0;220;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-07;73.0;91.0;0.0;0.0;0.0;8.95;240;16.11;230;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-10;70.0;90.0;0.0;0.0;0.0;4.47;150;14.99;150;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-07-24;71.1;93.0;0.0;0.0;0.0;7.16;230;14.09;260;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-13;73.0;81.0;0.73;0.0;0.0;6.26;40;14.99;60;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-14;73.0;88.0;0.21;0.0;0.0;3.8;200;16.11;190;19.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-18;75.0;98.1;0.01;0.0;0.0;7.38;220;16.11;210;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2017-08-21;71.1;93.0;0.0;0.0;0.0;3.13;150;12.97;140;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-24;71.1;84.0;0.0;0.0;0.0;6.04;80;17.0;110;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-08-26;68.0;82.9;0.0;0.0;0.0;8.05;80;14.99;60;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-10;51.1;71.1;0.0;0.0;0.0;8.95;50;21.03;50;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-09-25;63.0;82.9;0.0;0.0;0.0;6.71;40;16.11;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-08;73.9;84.0;0.02;0.0;0.0;8.28;170;17.0;140;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-17;42.1;64.0;0.0;0.0;0.0;5.14;40;16.11;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-10-31;39.0;69.1;0.0;0.0;0.0;1.79;30;8.95;40;10.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-05;51.1;70.0;0.0;0.0;0.0;2.46;40;8.05;170;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-06;53.1;75.9;0.0;0.0;0.0;4.7;240;18.12;240;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-11;28.2;46.0;0.0;0.0;0.0;5.14;60;16.11;50;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-14;43.0;52.0;0.0;0.0;0.0;8.72;30;17.0;50;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-17;34.0;57.0;0.0;0.0;0.0;2.91;20;8.05;30;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-18;33.1;66.9;0.0;0.0;0.0;11.41;230;29.08;240;36.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-27;26.2;61.0;0.0;0.0;0.0;1.34;40;10.07;40;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-11-29;39.9;70.0;0.0;0.0;0.0;2.46;290;10.07;280;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-10;27.1;43.0;0.0;0.0;0.0;5.82;270;14.99;280;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-13;21.2;43.0;0.0;0.0;0.0;8.72;230;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-15;31.1;43.0;0.0;0.0;0.0;5.14;290;12.08;80;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-16;24.3;50.0;0.0;0.0;0.0;3.58;230;14.09;250;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-22;36.0;61.0;0.0;0.0;0.0;3.58;240;12.97;250;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2017-12-24;43.0;61.0;0.0;0.0;0.0;7.38;90;19.91;90;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-04;18.1;30.2;0.0;0.0;1.18;9.62;300;21.03;350;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-07;4.1;30.2;0.0;0.0;0.0;2.68;80;10.07;80;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-11;41.0;64.0;0.11;0.0;0.0;6.71;150;14.99;130;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-21;31.1;68.0;0.0;0.0;0.0;1.12;250;8.95;230;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-01-23;46.9;70.0;0.83;0.0;0.0;15.66;230;31.99;240;42.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-05;29.1;48.0;0.0;0.0;0.0;4.03;330;14.09;330;23.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-06;29.1;59.0;0.0;0.0;0.0;5.37;240;14.09;230;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-08;33.1;50.0;0.0;0.0;0.0;3.36;360;12.97;20;21.03;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-10;43.0;64.9;0.08;0.0;0.0;4.47;200;16.11;180;23.04;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-11;64.0;72.0;0.0;0.0;0.0;14.99;220;25.05;230;33.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-14;37.0;57.9;0.0;0.0;0.0;6.49;220;14.99;210;25.05;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No;No
2018-02-17;39.9;55.9;0.06;0.0;0.0;6.93;90;19.91;80;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-22;61.0;78.1;0.0;0.0;0.0;9.84;230;18.12;230;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-02-27;35.1;61.0;0.0;0.0;0.0;2.24;110;14.99;50;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-02;41.0;55.0;0.0;0.0;0.0;14.99;300;25.95;270;46.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-06;32.0;42.1;0.45;0.0;0.0;4.47;140;12.97;130;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-03-21;32.0;42.1;0.05;0.0;0.0;6.93;290;17.0;290;27.07;Yes;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No;No
2018-03-22;32.0;53.1;0.0;0.0;0.0;6.04;310;14.09;340;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-03;45.0;75.0;0.0;0.0;0.0;7.61;200;19.91;200;25.05;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-05;34.0;61.0;0.0;0.0;0.0;3.58;270;10.07;280;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-11;37.9;62.1;0.0;0.0;0.0;5.37;230;12.08;230;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-12;44.1;75.0;0.0;0.0;0.0;13.87;220;25.95;220;34.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-20;34.0;64.9;0.0;0.0;0.0;2.91;40;14.99;50;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-21;37.0;68.0;0.0;0.0;0.0;4.47;80;14.09;;;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-04-26;48.0;75.0;0.18;0.0;0.0;3.36;280;21.92;280;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-07;55.0;73.9;0.0;0.0;0.0;7.61;80;17.0;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-08;53.1;77.0;0.0;0.0;0.0;7.83;50;14.99;30;21.03;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-10;59.0;87.1;0.18;0.0;0.0;9.17;240;21.92;270;27.96;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-12;66.9;91.9;0.0;0.0;0.0;6.26;240;14.99;230;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-21;68.0;86.0;0.72;0.0;0.0;4.7;80;21.92;80;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-05-25;64.9;86.0;0.0;0.0;0.0;5.82;220;14.09;230;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-05-29;69.1;82.0;0.62;0.0;0.0;4.47;110;12.08;110;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-06-03;69.1;88.0;0.0;0.0;0.0;4.92;40;14.09;310;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-05;57.0;82.0;0.0;0.0;0.0;3.13;230;14.09;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-07;62.1;84.9;0.0;0.0;0.0;4.92;170;12.08;20;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-09;68.0;89.1;0.0;0.0;0.0;2.68;110;12.08;150;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-23;73.9;91.9;0.18;0.0;0.0;8.72;230;21.03;240;27.07;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-06-27;64.9;86.0;0.0;0.0;0.0;3.58;230;12.08;240;14.99;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-03;75.0;95.0;0.0;0.0;0.0;6.49;80;14.09;50;23.04;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-05;72.0;95.0;0.03;0.0;0.0;4.92;240;23.94;150;31.09;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-09;57.0;87.1;0.0;0.0;0.0;3.58;40;12.97;50;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-12;72.0;87.1;0.01;0.0;0.0;7.61;90;14.09;90;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-19;63.0;90.0;0.0;0.0;0.0;7.16;80;16.11;120;25.95;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-07-22;68.0;89.1;1.11;0.0;0.0;5.59;40;25.05;50;42.95;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-28;71.1;91.0;0.84;0.0;0.0;4.25;220;16.11;220;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-07-31;73.0;87.1;0.22;0.0;0.0;5.37;170;16.11;170;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-02;71.1;89.1;0.26;0.0;0.0;7.83;250;19.91;240;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-11;72.0;91.0;0.04;0.0;0.0;4.47;220;16.11;220;19.01;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-08-16;68.0;91.9;0.0;0.0;0.0;2.91;250;12.97;250;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-24;55.0;82.0;0.0;0.0;0.0;4.7;70;14.09;90;19.01;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-08-31;69.1;91.9;0.27;0.0;0.0;3.8;300;14.99;300;21.03;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-01;71.1;93.0;0.19;0.0;0.0;4.92;80;21.03;40;25.05;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-03;69.1;91.0;0.0;0.0;0.0;1.12;110;6.93;120;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-05;71.1;91.0;0.0;0.0;0.0;4.03;110;12.08;160;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-09-17;72.0;88.0;1.32;0.0;0.0;11.63;170;23.04;130;34.0;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2018-09-25;69.1;84.9;0.0;0.0;0.0;3.36;40;12.08;30;14.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-05;68.0;90.0;0.0;0.0;0.0;3.8;90;12.97;80;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-10;69.1;81.0;0.1;0.0;0.0;7.61;130;14.09;140;19.91;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-13;48.0;70.0;0.0;0.0;0.0;3.36;360;12.97;340;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-18;43.0;62.1;0.0;0.0;0.0;4.47;40;21.92;50;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-10-19;39.0;69.1;0.0;0.0;0.0;3.13;230;14.09;220;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-02;60.1;70.0;0.0;0.0;0.0;11.86;200;25.95;190;34.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-08;51.1;64.9;0.0;0.0;0.0;7.16;40;17.0;30;21.92;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-09;50.0;53.1;0.07;0.0;0.0;5.37;50;14.09;80;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-11;28.2;51.1;0.0;0.0;0.0;4.03;60;12.97;60;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-13;44.1;51.1;1.19;0.0;0.0;2.91;300;14.09;310;18.12;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-17;33.1;59.0;0.0;0.0;0.0;1.57;50;14.09;50;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-18;37.0;59.0;0.0;0.0;0.0;1.57;100;8.05;130;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-11-30;42.1;68.0;0.02;0.0;0.0;8.72;240;21.92;230;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-01;52.0;62.1;0.32;0.0;0.0;5.14;130;14.09;140;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-06;25.2;46.0;0.0;0.0;0.0;3.8;220;12.08;240;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-07;29.1;50.0;0.0;0.0;0.0;1.79;300;8.05;20;12.97;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-15;42.1;48.9;0.23;0.0;0.0;3.58;50;14.09;50;17.0;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-21;46.0;64.9;0.04;0.0;0.0;14.99;210;31.09;200;40.04;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2018-12-25;26.2;50.0;0.0;0.0;0.0;1.57;160;8.95;120;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-04;46.0;60.1;0.54;0.0;0.0;7.16;130;21.03;120;29.08;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-08;46.0;66.9;0.0;0.0;0.0;9.17;240;21.03;220;27.96;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-09;37.0;57.0;0.0;0.0;0.0;9.4;290;18.12;310;29.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-12;30.2;39.0;0.07;0.0;0.0;5.59;70;12.08;90;17.0;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-14;31.1;41.0;0.0;0.0;0.0;3.58;30;10.07;40;17.0;Yes;No;No;No;No;No;Yes;No;No;No;No;No;No;No;No;No;No
2019-01-15;28.2;46.9;0.0;0.0;0.0;1.34;330;8.05;310;12.08;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-01-20;26.2;59.0;0.61;0.0;0.0;12.3;220;23.94;300;31.99;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-12;41.0;48.0;0.17;0.0;0.0;5.37;310;17.0;300;27.07;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-17;34.0;39.9;0.24;0.0;0.0;4.47;90;12.08;90;14.09;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-18;37.9;63.0;0.42;0.0;0.0;6.71;280;14.09;10;21.92;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-26;30.2;63.0;0.0;0.0;0.0;3.8;220;19.91;220;23.94;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-02-27;39.9;50.0;0.29;0.0;0.0;3.13;30;8.95;20;12.08;Yes;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-01;39.0;46.9;0.65;0.0;0.0;7.38;120;14.99;120;19.01;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-03;42.1;50.0;0.81;0.0;0.0;6.93;110;12.97;330;21.03;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-05;32.0;44.1;0.0;0.0;0.0;5.14;290;12.08;270;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-06;27.1;42.1;0.0;0.0;0.0;5.59;320;16.11;270;25.05;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-15;57.9;73.9;0.31;0.0;0.0;13.42;220;25.95;220;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-03-17;35.1;57.0;0.0;0.0;0.0;3.8;250;12.97;250;14.09;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-03-26;39.0;55.9;0.06;0.0;0.0;10.07;40;21.03;30;25.95;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-09;61.0;73.9;0.04;0.0;0.0;5.82;250;12.08;240;16.11;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-04-23;46.0;81.0;0.0;0.0;0.0;7.38;240;16.11;230;19.91;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-06;60.1;77.0;0.0;0.0;0.0;5.82;40;14.09;50;18.12;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-12;64.9;75.9;0.0;0.0;0.0;11.63;230;21.92;220;27.07;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-05-13;57.0;73.9;1.32;0.0;0.0;3.58;330;23.04;10;36.91;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-05-24;68.0;93.0;0.0;0.0;0.0;5.82;280;14.09;330;21.03;Yes;No;No;No;No;No;No;No;No;No;Yes;Yes;No;No;No;No;No
2019-05-26;72.0;93.9;0.05;0.0;0.0;5.82;240;17.0;240;23.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-06-08;71.1;79.0;0.32;0.0;0.0;9.4;100;18.12;80;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-02;68.0;95.0;0.0;0.0;0.0;3.36;260;12.08;230;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-03;70.0;97.0;0.0;0.0;0.0;4.03;260;12.08;360;16.11;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-10;72.0;91.0;0.0;0.0;0.0;5.82;200;12.97;180;17.0;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-07-15;70.0;95.0;0.35;0.0;0.0;4.25;150;17.0;310;23.94;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-22;73.9;97.0;0.06;0.0;0.0;12.08;220;27.96;230;35.12;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-07-31;69.1;95.0;0.24;0.0;0.0;3.36;10;14.09;10;19.01;No;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-02;68.0;87.1;0.21;0.0;0.0;5.14;110;23.04;110;29.08;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-03;70.0;86.0;0.0;0.0;0.0;3.36;150;8.95;130;12.97;Yes;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
2019-08-06;64.9;90.0;0.16;0.0;0.0;4.92;230;17.0;230;34.0;Yes;Yes;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-07;72.0;91.0;0.14;0.0;0.0;6.49;220;29.97;240;40.04;Yes;No;No;No;No;No;No;No;No;No;No;Yes;No;No;No;No;No
2019-08-09;66.9;93.0;0.0;0.0;0.0;;;;;;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No;No
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/docs/README.md | # Building Documentation
## Building locally:
#### [Build and install cuML](../BUILD.md)
#### Generate the docs
```bash
bash build.sh cppdocs pydocs
```
#### Once the process finishes, documentation can be found in build/html
```bash
xdg-open build/html/api.html
```
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/docs/make.bat | @ECHO OFF
pushd %~dp0
REM Command file for Sphinx documentation
if "%SPHINXBUILD%" == "" (
set SPHINXBUILD=sphinx-build
)
set SOURCEDIR=source
set BUILDDIR=build
set SPHINXPROJ=cuML
if "%1" == "" goto help
%SPHINXBUILD% >NUL 2>NUL
if errorlevel 9009 (
echo.
echo.The 'sphinx-build' command was not found. Make sure you have Sphinx
echo.installed, then set the SPHINXBUILD environment variable to point
echo.to the full path of the 'sphinx-build' executable. Alternatively you
echo.may add the Sphinx directory to PATH.
echo.
echo.If you don't have Sphinx installed, grab it from
echo.http://sphinx-doc.org/
exit /b 1
)
%SPHINXBUILD% -M %1 %SOURCEDIR% %BUILDDIR% %SPHINXOPTS%
goto end
:help
%SPHINXBUILD% -M help %SOURCEDIR% %BUILDDIR% %SPHINXOPTS%
:end
popd
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/docs/Makefile | # Minimal makefile for Sphinx documentation
#
# You can set these variables from the command line.
SPHINXOPTS = "-W"
SPHINXBUILD = sphinx-build
SPHINXPROJ = cuML
SOURCEDIR = source
BUILDDIR = build
# Put it first so that "make" without argument is like "make help".
help:
@$(SPHINXBUILD) -M help -v "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O)
.PHONY: help Makefile
# Catch-all target: route all unknown targets to Sphinx using the new
# "make mode" option. $(O) is meant as a shortcut for $(SPHINXOPTS).
%: Makefile
@$(SPHINXBUILD) -M $@ "$(SOURCEDIR)" "$(BUILDDIR)" $(SPHINXOPTS) $(O)
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/cuml_blogs.rst | Blogs and other references
==========================
The RAPIDS team blogs at https://medium.com/rapids-ai, and many of
these blog posts provide deeper dives into models or key features from
cuML. Here, we've selected just a few that are of particular interest
to cuML users:
Integrations, applications, and general concepts
------------------------------------------------
* `RAPIDS Configurable Input and Output Types <https://medium.com/@dantegd/e719d72c135b>`_
* `RAPIDS on AWS Sagemaker <https://medium.com/rapids-ai/running-rapids-experiments-at-scale-using-amazon-sagemaker-d516420f165b>`_
Tree and forest models
----------------------
* `Accelerating Random Forests up to 45x using cuML <https://medium.com/rapids-ai/accelerating-random-forests-up-to-45x-using-cuml-dfb782a31bea>`_
* `RAPIDS Forest Inference Library: Prediction at 100 million rows per second <https://medium.com/rapids-ai/rapids-forest-inference-library-prediction-at-100-million-rows-per-second-19558890bc35>`_
* `Sparse Forests with FIL <https://medium.com/rapids-ai/sparse-forests-with-fil-ffbb42b0c7e3>`_
Other popular models
--------------------
* `Accelerating TSNE with GPUs: From hours to seconds <https://medium.com/rapids-ai/tsne-with-gpus-hours-to-seconds-9d9c17c941db>`_
* `Combining Speed and Scale to Accelerate K-Means in RAPIDS cuML <https://medium.com/rapids-ai/combining-speed-scale-to-accelerate-k-means-in-rapids-cuml-8d45e5ce39f5>`_
* `Accelerating k-nearest neighbors 600x using RAPIDS cuML <https://medium.com/rapids-ai/accelerating-k-nearest-neighbors-600x-using-rapids-cuml-82725d56401e>`_
Academic Papers
---------------
* `Machine Learning in Python: Main developments and technology trends in data science, machine learning, and artificial intelligence (Sebastian Raschka, Joshua Patterson, Corey Nolet) <https://arxiv.org/abs/2002.04803>`_
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/cuml_intro.rst | Introduction
============
cuML accelerates machine learning on GPUs. The library follows a
couple of key principles, and understanding these will help you take
full advantage cuML.
1. Where possible, match the scikit-learn API
---------------------------------------------
cuML estimators look and feel just like `scikit-learn estimators
<https://scikit-learn.org/stable/developers/develop.html>`_. You
initialize them with key parameters, fit them with a ``fit`` method,
then call ``predict`` or ``transform`` for inference.
.. code-block:: python
import cuml.LinearRegression
model = cuml.LinearRegression()
model.fit(X_train, y)
y_prediction = model.predict(X_test)
You can find many more complete examples in the `Introductory Notebook
<estimator_intro.ipynb>`_ and in the cuML API documentation.
2. Accept flexible input types, return predictable output types
---------------------------------------------------------------
cuML estimators can accept NumPy arrays, cuDF dataframes, cuPy arrays,
2d PyTorch tensors, and really any kind of standards-based Python
array input you can throw at them. This relies on the ``__array__``
and ``__cuda_array_interface__`` standards, widely used throughout the
PyData community.
By default, outputs will mirror the data type you provided. So, if you
fit a model with a NumPy array, the ``model.coef_`` property
containing fitted coefficients will also be a NumPy array. If you fit
a model using cuDF's GPU-based DataFrame and Series objects, the
model's output properties will be cuDF objects. You can always
override this behavior and select a default datatype with the
`memory_utils.set_global_output_type
<https://docs.rapids.ai/api/cuml/nightly/api.html#datatype-configuration>`_
function.
The `RAPIDS Configurable Input and Output Types
<https://medium.com/@dantegd/e719d72c135b>`_ blog post goes into much
more detail explaining this approach.
3. Be fast!
-----------
cuML's estimators rely on highly-optimized CUDA primitives and
algorithms within ``libcuml``. On a modern GPU, these can exceed the
performance of CPU-based equivalents by a factor of anything from 4x
(for a medium-sized linear regression) to over 1000x (for large-scale
tSNE dimensionality reduction). The `cuml.benchmark
<https://docs.rapids.ai/api/cuml/nightly/api.html#benchmarking>`_ module
provides an easy interface to benchmark your own hardware.
To maximize performance, keep in mind - a modern GPU can have over
5000 cores, so make sure you're providing enough data to keep it busy!
In many cases, performance advantages appear as the dataset grows.
Learn more
----------
To get started learning cuML, walk through the `Introductory Notebook
<estimator_intro.ipynb>`_. Then try out some of the other notebook
examples in the ``notebooks`` directory of the repository. Finally, do
a deeper dive with the `cuML blogs <cuml_blogs.rst>`_.
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/execution_device_interoperability.ipynb | import cuml # no change is needed for even the importing!
import pandas as pd
from cuml.manifold.umap import UMAP
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.manifold import trustworthiness
# load the iris dataset from sklearn and extract the required information
iris = datasets.load_iris()
dataset = iris.data
iris_df = pd.DataFrame(iris.data, columns=iris.feature_names)
# define the cuml UMAP model and use fit_transform function to obtain the low dimensional output of the input dataset
embedding = UMAP(
n_neighbors=10, min_dist=0.01, init="random"
).fit_transform(iris_df)
# calculate the trust worthiness of the results obtaind from the cuml UMAP
trust = trustworthiness(iris_df, embedding)
print(trust)import cuml
from cuml.neighbors import NearestNeighbors
from cuml.datasets import make_regression, make_blobs
from cuml.model_selection import train_test_split
X_blobs, y_blobs = make_blobs(n_samples=2000,
n_features=20)
X_train_blobs, X_test_blobs, y_train_blobs, y_test_blobs = train_test_split(X_blobs,
y_blobs,
test_size=0.2, shuffle=True)
X_reg, y_reg = make_regression(n_samples=2000,
n_features=20)
X_train_reg, X_test_reg, y_train_reg, y_tes_reg = train_test_split(X_reg,
y_reg,
test_size=0.2,
shuffle=True)from cuml.neighbors import NearestNeighbors
from cuml.common.device_selection import using_device_type
nn = NearestNeighbors()
with using_device_type('cpu'):
nn.fit(X_train_blobs)
nearest_neighbors = nn.kneighbors(X_test_blobs)from cuml.common.device_selection import set_global_device_type, get_global_device_type
initial_device_type = get_global_device_type()
print('default execution device:', initial_device_type)set_global_device_type('cpu')
print('new device type:', get_global_device_type())import pickle
from cuml.linear_model import LinearRegression
lin_reg = LinearRegression()
lin_reg.fit(X_train_reg, y_train_reg)
pickle.dump(lin_reg, open("lin_reg.pkl", "wb"))
del lin_regrecovered_lin_reg = pickle.load(open("lin_reg.pkl", "rb"))
predictions = recovered_lin_reg.predict(X_test_reg)
print(predictions[0:10]) | 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/conf.py | #!/usr/bin/env python3
# Copyright (c) 2018-2023, NVIDIA CORPORATION.
#
# This file is execfile()d with the current directory set to its
# containing dir.
#
# Note that not all possible configuration values are present in this
# autogenerated file.
#
# All configuration values have a default; values that are commented out
# serve to show the default.
# If extensions (or modules to document with autodoc) are in another directory,
# add these directories to sys.path here. If the directory is relative to the
# documentation root, use os.path.abspath to make it absolute, like shown here.
#
import os
import sys
# If extensions (or modules to document with autodoc) are in another
# directory, add these directories to sys.path here. If the directory
# is relative to the documentation root, use os.path.abspath to make it
# absolute, like shown here.
sys.path.insert(0, os.path.abspath('sphinxext'))
from github_link import make_linkcode_resolve # noqa
# -- General configuration ------------------------------------------------
# If your documentation needs a minimal Sphinx version, state it here.
#
# needs_sphinx = '1.0'
# Add any Sphinx extension module names here, as strings. They can be
# extensions coming with Sphinx (named 'sphinx.ext.*') or your custom
# ones.
extensions = [
'numpydoc',
'sphinx.ext.autodoc',
'sphinx.ext.autosummary',
'sphinx.ext.doctest',
'sphinx.ext.intersphinx',
'sphinx.ext.linkcode',
"IPython.sphinxext.ipython_console_highlighting",
"IPython.sphinxext.ipython_directive",
"nbsphinx",
"recommonmark",
"sphinx_markdown_tables",
"sphinx_copybutton"
]
ipython_mplbackend = "str"
# Add any paths that contain templates here, relative to this directory.
templates_path = ['_templates']
# generate autosummary even if no references
# autosummary_generate = True
# The suffix(es) of source filenames.
# You can specify multiple suffix as a list of string:
#
# source_suffix = ['.rst', '.md']
source_suffix = {".rst": "restructuredtext", ".md": "markdown"}
# The master toctree document.
master_doc = 'index'
# General information about the project.
project = 'cuml'
copyright = '2020-2023, NVIDIA Corporation'
author = 'NVIDIA Corporation'
# The version info for the project you're documenting, acts as replacement for
# |version| and |release|, also used in various other places throughout the
# built documents.
#
# The short X.Y version.
version = '23.12'
# The full version, including alpha/beta/rc tags.
release = '23.12.00'
# The language for content autogenerated by Sphinx. Refer to documentation
# for a list of supported languages.
#
# This is also used if you do content translation via gettext catalogs.
# Usually you set "language" from the command line for these cases.
language = 'en'
# List of patterns, relative to source directory, that match files and
# directories to ignore when looking for source files.
# This patterns also effect to html_static_path and html_extra_path
exclude_patterns = []
# The name of the Pygments (syntax highlighting) style to use.
pygments_style = 'sphinx'
# If true, `todo` and `todoList` produce output, else they produce nothing.
todo_include_todos = False
# -- Options for HTML output ----------------------------------------------
# The theme to use for HTML and HTML Help pages. See the documentation for
# a list of builtin themes.
#
html_theme = 'pydata_sphinx_theme'
# Theme options are theme-specific and customize the look and feel of a theme
# further. For a list of options available for each theme, see the
# documentation.
#
html_theme_options = {
"external_links": [],
# https://github.com/pydata/pydata-sphinx-theme/issues/1220
"icon_links": [],
"github_url": "https://github.com/rapidsai/cuml",
"twitter_url": "https://twitter.com/rapidsai",
"show_toc_level": 1,
"navbar_align": "right",
}
# Add any paths that contain custom static files (such as style sheets) here,
# relative to this directory. They are copied after the builtin static files,
# so a file named "default.css" will overwrite the builtin "default.css".
html_static_path = ['_static']
html_js_files = []
# -- Options for HTMLHelp output ------------------------------------------
# Output file base name for HTML help builder.
htmlhelp_basename = 'cuMLdoc'
# -- Options for LaTeX output ---------------------------------------------
latex_elements = {
# The paper size ('letterpaper' or 'a4paper').
#
# 'papersize': 'letterpaper',
# The font size ('10pt', '11pt' or '12pt').
#
# 'pointsize': '10pt',
# Additional stuff for the LaTeX preamble.
#
# 'preamble': '',
# Latex figure (float) alignment
#
# 'figure_align': 'htbp',
}
# Grouping the document tree into LaTeX files. List of tuples
# (source start file, target name, title,
# author, documentclass [howto, manual, or own class]).
latex_documents = [
(master_doc, 'cuml.tex', 'cuml Documentation', 'NVIDIA Corporation', 'manual'),
]
# -- Options for manual page output ---------------------------------------
# One entry per manual page. List of tuples
# (source start file, name, description, authors, manual section).
man_pages = [(master_doc, 'cuml', 'cuml Documentation', [author], 1)]
# -- Options for Texinfo output -------------------------------------------
# Grouping the document tree into Texinfo files. List of tuples
# (source start file, target name, title, author,
# dir menu entry, description, category)
texinfo_documents = [
(master_doc, 'cuml', 'cuml Documentation', author, 'cuml',
'One line description of project.', 'Miscellaneous'),
]
# Example configuration for intersphinx: refer to the Python standard library.
intersphinx_mapping = {
"python": ("https://docs.python.org/3", None),
"scipy": ("https://docs.scipy.org/doc/scipy", None),
}
# Config numpydoc
numpydoc_show_inherited_class_members = False
numpydoc_class_members_toctree = False
def setup(app):
app.add_css_file("references.css")
app.add_css_file("https://docs.rapids.ai/assets/css/custom.css")
app.add_js_file("https://docs.rapids.ai/assets/js/custom.js", loading_method="defer")
# The following is used by sphinx.ext.linkcode to provide links to github
linkcode_resolve = make_linkcode_resolve(
'cuml', 'https://github.com/rapidsai/'
'cuml/blob/{revision}/python/'
'{package}/{path}#L{lineno}')
# Set the default role for interpreted code (anything surrounded in `single
# backticks`) to be a python object. See
# https://www.sphinx-doc.org/en/master/usage/configuration.html#confval-default_role
default_role = "py:obj"
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/estimator_intro.ipynb | import cuml
from cupy import asnumpy
from joblib import dump, loadfrom cuml.datasets.classification import make_classification
from cuml.model_selection import train_test_split
from cuml.ensemble import RandomForestClassifier as cuRF
from sklearn.metrics import accuracy_score
# synthetic dataset dimensions
n_samples = 1000
n_features = 10
n_classes = 2
# random forest depth and size
n_estimators = 25
max_depth = 10
# generate synthetic data [ binary classification task ]
X, y = make_classification ( n_classes = n_classes,
n_features = n_features,
n_samples = n_samples,
random_state = 0 )
X_train, X_test, y_train, y_test = train_test_split( X, y, random_state = 0 )
model = cuRF( max_depth = max_depth,
n_estimators = n_estimators,
random_state = 0 )
trained_RF = model.fit ( X_train, y_train )
predictions = model.predict ( X_test )
cu_score = cuml.metrics.accuracy_score( y_test, predictions )
sk_score = accuracy_score( asnumpy( y_test ), asnumpy( predictions ) )
print( " cuml accuracy: ", cu_score )
print( " sklearn accuracy : ", sk_score )
# save
dump( trained_RF, 'RF.model')
# to reload the model uncomment the line below
loaded_model = load('RF.model')from cuml.datasets import make_blobs
from cuml.manifold.umap import UMAP as cuUMAP
from sklearn.manifold import trustworthiness
import numpy as np
n_samples = 1000
n_features = 100
cluster_std = 0.1
X_blobs, y_blobs = make_blobs( n_samples = n_samples,
cluster_std = cluster_std,
n_features = n_features,
random_state = 0,
dtype=np.float32 )
trained_UMAP = cuUMAP( n_neighbors = 10 ).fit( X_blobs )
X_embedded = trained_UMAP.transform( X_blobs )
cu_score = cuml.metrics.trustworthiness( X_blobs, X_embedded )
sk_score = trustworthiness( asnumpy( X_blobs ), asnumpy( X_embedded ) )
print(" cuml's trustworthiness score : ", cu_score )
print(" sklearn's trustworthiness score : ", sk_score )
# save
dump( trained_UMAP, 'UMAP.model')
# to reload the model uncomment the line below
# loaded_model = load('UMAP.model')from cuml.datasets import make_blobs
from cuml import DBSCAN as cumlDBSCAN
from sklearn.metrics import adjusted_rand_score
import numpy as np
n_samples = 1000
n_features = 100
cluster_std = 0.1
X_blobs, y_blobs = make_blobs( n_samples = n_samples,
n_features = n_features,
cluster_std = cluster_std,
random_state = 0,
dtype=np.float32 )
cuml_dbscan = cumlDBSCAN( eps = 3,
min_samples = 2)
trained_DBSCAN = cuml_dbscan.fit( X_blobs )
cu_y_pred = trained_DBSCAN.fit_predict ( X_blobs )
cu_adjusted_rand_index = cuml.metrics.cluster.adjusted_rand_score( y_blobs, cu_y_pred )
sk_adjusted_rand_index = adjusted_rand_score( asnumpy(y_blobs), asnumpy(cu_y_pred) )
print(" cuml's adjusted random index score : ", cu_adjusted_rand_index)
print(" sklearn's adjusted random index score : ", sk_adjusted_rand_index)
# save and optionally reload
dump( trained_DBSCAN, 'DBSCAN.model')
# to reload the model uncomment the line below
# loaded_model = load('DBSCAN.model')from cuml.datasets import make_regression
from cuml.model_selection import train_test_split
from cuml.linear_model import LinearRegression as cuLR
from sklearn.metrics import r2_score
n_samples = 2**10
n_features = 100
n_info = 70
X_reg, y_reg = make_regression( n_samples = n_samples,
n_features = n_features,
n_informative = n_info,
random_state = 123 )
X_reg_train, X_reg_test, y_reg_train, y_reg_test = train_test_split( X_reg,
y_reg,
train_size = 0.8,
random_state = 10 )
cuml_reg_model = cuLR( fit_intercept = True,
normalize = True,
algorithm = 'eig' )
trained_LR = cuml_reg_model.fit( X_reg_train, y_reg_train )
cu_preds = trained_LR.predict( X_reg_test )
cu_r2 = cuml.metrics.r2_score( y_reg_test, cu_preds )
sk_r2 = r2_score( asnumpy( y_reg_test ), asnumpy( cu_preds ) )
print("cuml's r2 score : ", cu_r2)
print("sklearn's r2 score : ", sk_r2)
# save and reload
dump( trained_LR, 'LR.model')
# to reload the model uncomment the line below
# loaded_model = load('LR.model') | 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/pickling_cuml_models.ipynb | import warnings
warnings.filterwarnings("ignore", category=FutureWarning)from cuml.datasets import make_blobs
X, y = make_blobs(n_samples=50,
n_features=10,
centers=5,
cluster_std=0.4,
random_state=0)from cuml.cluster import KMeans
model = KMeans(n_clusters=5)
model.fit(X)import pickle
pickle.dump(model, open("kmeans_model.pkl", "wb"))model = pickle.load(open("kmeans_model.pkl", "rb"))model.cluster_centers_from dask.distributed import Client
from dask_cuda import LocalCUDACluster
cluster = LocalCUDACluster()
client = Client(cluster)
clientfrom cuml.dask.datasets import make_blobs
n_workers = len(client.scheduler_info()["workers"].keys())
X, y = make_blobs(n_samples=5000,
n_features=30,
centers=5,
cluster_std=0.4,
random_state=0,
n_parts=n_workers*5)
X = X.persist()
y = y.persist()from cuml.dask.cluster import KMeans
dist_model = KMeans(n_clusters=5)dist_model.fit(X)import pickle
single_gpu_model = dist_model.get_combined_model()
pickle.dump(single_gpu_model, open("kmeans_model.pkl", "wb"))single_gpu_model = pickle.load(open("kmeans_model.pkl", "rb"))single_gpu_model.cluster_centers_from cuml.ensemble import RandomForestClassifier as cumlRandomForestClassifier
from sklearn.datasets import load_iris
import numpy as np
X, y = load_iris(return_X_y=True)
X, y = X.astype(np.float32), y.astype(np.int32)
clf = cumlRandomForestClassifier(max_depth=3, random_state=0, n_estimators=10)
clf.fit(X, y)
checkpoint_path = './checkpoint.tl'
# Export cuML RF model as Treelite checkpoint
clf.convert_to_treelite_model().to_treelite_checkpoint(checkpoint_path)import treelite
# The checkpoint file has been copied over
checkpoint_path = './checkpoint.tl'
tl_model = treelite.Model.deserialize(checkpoint_path)
out_prob = treelite.gtil.predict(tl_model, X, pred_margin=True)
print(out_prob) | 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/user_guide.rst | User Guide
==========
.. toctree::
:maxdepth: 2
estimator_intro.ipynb
pickling_cuml_models.ipynb
execution_device_interoperability.ipynb
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/api.rst | ~~~~~~~~~~~~~
API Reference
~~~~~~~~~~~~~
.. role:: py(code)
:language: python
:class: highlight
Module Configuration
====================
.. _output-data-type-configuration:
Output Data Type Configuration
------------------------------
.. autofunction:: cuml.internals.memory_utils.set_global_output_type
.. autofunction:: cuml.internals.memory_utils.using_output_type
.. _device-selection:
CPU / GPU Device Selection (Experimental)
-----------------------------------------
cuML provides experimental support for running selected estimators and operators on either the GPU or CPU. This document covers the set of operators for which CPU/GPU device selection capabilities are supported as of the current nightly packages. If an operator isn't listed here, it can only be run on the GPU. Prior versions of cuML may have reduced support compared to the following table.
.. list-table:: Operators Supporting CPU/GPU Device Selection and Execution
:header-rows: 1
:align: center
:widths: auto
* - Category
- Operator
* - Clustering
- HDBSCAN
* - Dimensionality Reduction and Manifold Learning
- PCA
* - Dimensionality Reduction and Manifold Learning
- TruncatedSVD
* - Dimensionality Reduction and Manifold Learning
- UMAP
* - Neighbors
- NearestNeighbors
* - Regression and Classification
- ElasticNet
* - Regression and Classification
- Lasso
* - Regression and Classification
- LinearRegression
* - Regression and Classification
- LogisticRegression
* - Regression and Classification
- Ridge
If a CUDA-enabled GPU is available on the system, cuML will default to using it. Users can configure CPU or GPU execution for supported operators via context managers or global configuration.
.. code-block:: python
from cuml.linear_model import Lasso
from cuml.common.device_selection import using_device_type, set_global_device_type
with using_device_type("CPU"): # Alternatively, using_device_type("GPU")
model = Lasso()
model.fit(X_train, y_train)
predictions = model.predict(X_test)
# All operators supporting CPU execution will run on the CPU after this configuration
set_global_device_type("CPU")
model = Lasso()
model.fit(X_train, y_train)
predictions = model.predict(X_test)
For more detailed examples, please see the `Execution Device Interoperability Notebook
<execution_device_interoperability.ipynb>`_ in the User Guide.
.. _verbosity-levels:
Verbosity Levels
----------------
cuML follows a verbosity model similar to Scikit-learn's: The verbose parameter
can be a boolean, or a numeric value, and higher numeric values mean more verbosity. The exact values can be set directly, or through the cuml.common.logger module, and
they are:
.. list-table:: Verbosity Levels
:widths: 25 25 50
:header-rows: 1
* - Numeric value
- cuml.common.logger value
- Verbosity level
* - 0
- cuml.common.logger.level_off
- Disables all log messages
* - 1
- cuml.common.logger.level_critical
- Enables only critical messages
* - 2
- cuml.common.logger.level_error
- Enables all messages up to and including errors.
* - 3
- cuml.common.logger.level_warn
- Enables all messages up to and including warnings.
* - 4 or False
- cuml.common.logger.level_info
- Enables all messages up to and including information messages.
* - 5 or True
- cuml.common.logger.level_debug
- Enables all messages up to and including debug messages.
* - 6
- cuml.common.logger.level_trace
- Enables all messages up to and including trace messages.
Preprocessing, Metrics, and Utilities
=====================================
Model Selection and Data Splitting
----------------------------------
.. autofunction:: cuml.model_selection.train_test_split
Feature and Label Encoding (Single-GPU)
---------------------------------------
.. autoclass:: cuml.preprocessing.LabelEncoder.LabelEncoder
:members:
.. autoclass:: cuml.preprocessing.LabelBinarizer
:members:
.. autofunction:: cuml.preprocessing.label_binarize
.. autoclass:: cuml.preprocessing.OneHotEncoder
:members:
.. autoclass:: cuml.preprocessing.TargetEncoder.TargetEncoder
:members:
Feature Scaling and Normalization (Single-GPU)
----------------------------------------------
.. autoclass:: cuml.preprocessing.MaxAbsScaler
:members:
.. autoclass:: cuml.preprocessing.MinMaxScaler
:members:
.. autoclass:: cuml.preprocessing.Normalizer
:members:
.. autoclass:: cuml.preprocessing.RobustScaler
:members:
.. autoclass:: cuml.preprocessing.StandardScaler
:members:
.. autofunction:: cuml.preprocessing.maxabs_scale
.. autofunction:: cuml.preprocessing.minmax_scale
.. autofunction:: cuml.preprocessing.normalize
.. autofunction:: cuml.preprocessing.robust_scale
.. autofunction:: cuml.preprocessing.scale
Other preprocessing methods (Single-GPU)
----------------------------------------
.. autoclass:: cuml.preprocessing.Binarizer
:members:
.. autoclass:: cuml.preprocessing.FunctionTransformer
:members:
.. autoclass:: cuml.preprocessing.KBinsDiscretizer
:members:
.. autoclass:: cuml.preprocessing.KernelCenterer
:members:
.. autoclass:: cuml.preprocessing.MissingIndicator
:members:
.. autoclass:: cuml.preprocessing.PolynomialFeatures
:members:
.. autoclass:: cuml.preprocessing.PowerTransformer
:members:
.. autoclass:: cuml.preprocessing.QuantileTransformer
:members:
.. autoclass:: cuml.preprocessing.SimpleImputer
:members:
.. autofunction:: cuml.preprocessing.add_dummy_feature
.. autofunction:: cuml.preprocessing.binarize
.. automodule:: cuml.compose
:members: ColumnTransformer, make_column_transformer, make_column_selector
Text Preprocessing (Single-GPU)
-------------------------------
.. autoclass:: cuml.preprocessing.text.stem.PorterStemmer
:members:
Feature and Label Encoding (Dask-based Multi-GPU)
-------------------------------------------------
.. autoclass:: cuml.dask.preprocessing.LabelBinarizer
:members:
.. autoclass:: cuml.dask.preprocessing.LabelEncoder.LabelEncoder
:members:
.. autoclass:: cuml.dask.preprocessing.OneHotEncoder
:members:
Feature Extraction (Single-GPU)
-------------------------------
.. autoclass:: cuml.feature_extraction.text.CountVectorizer
:members:
.. autoclass:: cuml.feature_extraction.text.HashingVectorizer
:members:
.. autoclass:: cuml.feature_extraction.text.TfidfVectorizer
:members:
Feature Extraction (Dask-based Multi-GPU)
-----------------------------------------
.. autoclass:: cuml.dask.feature_extraction.text.TfidfTransformer
:members:
Dataset Generation (Single-GPU)
-------------------------------
.. glossary::
random_state
Determines random number generation for dataset creation. Pass an int
for reproducible output across multiple function calls.
.. autofunction:: cuml.datasets.make_blobs
.. autofunction:: cuml.datasets.make_classification
.. autofunction:: cuml.datasets.make_regression
.. autofunction:: cuml.datasets.make_arima
Dataset Generation (Dask-based Multi-GPU)
-----------------------------------------
.. automodule:: cuml.dask.datasets.blobs
:members:
.. automodule:: cuml.dask.datasets.classification
:members:
.. automodule:: cuml.dask.datasets.regression
:members:
Metrics (regression, classification, and distance)
--------------------------------------------------
.. automodule:: cuml.metrics.regression
:members:
.. automodule:: cuml.metrics.accuracy
:members:
.. autofunction:: cuml.metrics.confusion_matrix
.. autofunction:: cuml.metrics.kl_divergence
.. autofunction:: cuml.metrics.log_loss
.. autofunction:: cuml.metrics.roc_auc_score
.. autofunction:: cuml.metrics.precision_recall_curve
.. automodule:: cuml.metrics.pairwise_distances
:members:
.. automodule:: cuml.metrics.pairwise_kernels
:members:
Metrics (clustering and manifold learning)
------------------------------------------
.. automodule:: cuml.metrics.trustworthiness
:members:
.. automodule:: cuml.metrics.cluster.adjusted_rand_index
:members:
.. automodule:: cuml.metrics.cluster.entropy
:members:
.. automodule:: cuml.metrics.cluster.homogeneity_score
:members:
.. automodule:: cuml.metrics.cluster.silhouette_score
:members:
.. automodule:: cuml.metrics.cluster.completeness_score
:members:
.. automodule:: cuml.metrics.cluster.mutual_info_score
:members:
.. automodule:: cuml.metrics.cluster.v_measure_score
:members:
Benchmarking
------------
.. automodule:: cuml.benchmark.algorithms
:members:
.. automodule:: cuml.benchmark.runners
:members:
.. automodule:: cuml.benchmark.datagen
:members:
Regression and Classification
=============================
Linear Regression
-----------------
.. autoclass:: cuml.LinearRegression
:members:
Logistic Regression
-------------------
.. autoclass:: cuml.LogisticRegression
:members:
Ridge Regression
----------------
.. autoclass:: cuml.Ridge
:members:
Lasso Regression
----------------
.. autoclass:: cuml.Lasso
:members:
ElasticNet Regression
---------------------
.. autoclass:: cuml.ElasticNet
:members:
Mini Batch SGD Classifier
-------------------------
.. autoclass:: cuml.MBSGDClassifier
:members:
Mini Batch SGD Regressor
------------------------
.. autoclass:: cuml.MBSGDRegressor
:members:
Multiclass Classification
-------------------------
.. autoclass:: cuml.multiclass.MulticlassClassifier
:members:
.. autoclass:: cuml.multiclass.OneVsOneClassifier
:members:
.. autoclass:: cuml.multiclass.OneVsRestClassifier
:members:
Naive Bayes
-----------
.. autoclass:: cuml.naive_bayes.MultinomialNB
:members:
.. autoclass:: cuml.naive_bayes.BernoulliNB
:members:
.. autoclass:: cuml.naive_bayes.ComplementNB
:members:
.. autoclass:: cuml.naive_bayes.GaussianNB
:members:
.. autoclass:: cuml.naive_bayes.CategoricalNB
:members:
Stochastic Gradient Descent
---------------------------
.. autoclass:: cuml.SGD
:members:
Random Forest
-------------
.. autoclass:: cuml.ensemble.RandomForestClassifier
:members:
.. autoclass:: cuml.ensemble.RandomForestRegressor
:members:
Forest Inferencing
------------------
.. autoclass:: cuml.ForestInference
:members:
Coordinate Descent
------------------
.. autoclass:: cuml.CD
:members:
Quasi-Newton
------------
.. autoclass:: cuml.QN
:members:
Support Vector Machines
-----------------------
.. autoclass:: cuml.svm.SVR
:members:
.. autoclass:: cuml.svm.LinearSVC
:members:
.. autoclass:: cuml.svm.LinearSVR
:members:
Nearest Neighbors Classification
--------------------------------
.. autoclass:: cuml.neighbors.KNeighborsClassifier
:members:
:noindex:
Nearest Neighbors Regression
----------------------------
.. autoclass:: cuml.neighbors.KNeighborsRegressor
:members:
:noindex:
Kernel Ridge Regression
-----------------------
.. autoclass:: cuml.KernelRidge
:members:
Clustering
==========
K-Means Clustering
------------------
.. autoclass:: cuml.KMeans
:members:
DBSCAN
------
.. autoclass:: cuml.DBSCAN
:members:
Agglomerative Clustering
------------------------
.. autoclass:: cuml.AgglomerativeClustering
:members:
HDBSCAN
-------
.. autoclass:: cuml.cluster.hdbscan.HDBSCAN
:members:
.. autofunction:: cuml.cluster.hdbscan.all_points_membership_vectors
.. autofunction:: cuml.cluster.hdbscan.membership_vector
.. autofunction:: cuml.cluster.hdbscan.approximate_predict
Dimensionality Reduction and Manifold Learning
==============================================
Principal Component Analysis
-----------------------------
.. autoclass:: cuml.PCA
:members:
Incremental PCA
---------------
.. autoclass:: cuml.IncrementalPCA
:members:
Truncated SVD
--------------
.. autoclass:: cuml.TruncatedSVD
:members:
UMAP
----
.. autoclass:: cuml.UMAP
:members:
Random Projections
------------------
.. autoclass:: cuml.random_projection.GaussianRandomProjection
:members:
.. autoclass:: cuml.random_projection.SparseRandomProjection
:members:
.. autofunction:: cuml.random_projection.johnson_lindenstrauss_min_dim
TSNE
----
.. autoclass:: cuml.TSNE
:members:
Neighbors
==========
Nearest Neighbors
-----------------
.. autoclass:: cuml.neighbors.NearestNeighbors
:members:
Nearest Neighbors Classification
--------------------------------
.. autoclass:: cuml.neighbors.KNeighborsClassifier
:members:
Nearest Neighbors Regression
----------------------------
.. autoclass:: cuml.neighbors.KNeighborsRegressor
:members:
Kernel Density Estimation
-------------------------
.. autoclass:: cuml.neighbors.KernelDensity
:members:
Time Series
===========
HoltWinters
-----------
.. autoclass:: cuml.ExponentialSmoothing
:members:
ARIMA
-----
.. autoclass:: cuml.tsa.ARIMA
:members:
.. autoclass:: cuml.tsa.auto_arima.AutoARIMA
:members:
Model Explainability
====================
SHAP Kernel Explainer
---------------------
.. autoclass:: cuml.explainer.KernelExplainer
:members:
SHAP Permutation Explainer
--------------------------
.. autoclass:: cuml.explainer.PermutationExplainer
:members:
Multi-Node, Multi-GPU Algorithms
================================
DBSCAN Clustering
-----------------
.. autoclass:: cuml.dask.cluster.DBSCAN
:members:
K-Means Clustering
------------------
.. autoclass:: cuml.dask.cluster.KMeans
:members:
Nearest Neighbors
-----------------
.. autoclass:: cuml.dask.neighbors.NearestNeighbors
:members:
.. autoclass:: cuml.dask.neighbors.KNeighborsRegressor
:members:
.. autoclass:: cuml.dask.neighbors.KNeighborsClassifier
:members:
Principal Component Analysis
----------------------------
.. autoclass:: cuml.dask.decomposition.PCA
:members:
Random Forest
-------------
.. autoclass:: cuml.dask.ensemble.RandomForestClassifier
:members:
.. autoclass:: cuml.dask.ensemble.RandomForestRegressor
:members:
Truncated SVD
-------------
.. autoclass:: cuml.dask.decomposition.TruncatedSVD
:members:
Manifold
--------
.. autoclass:: cuml.dask.manifold.UMAP
:members:
Linear Models
-------------
.. autoclass:: cuml.dask.linear_model.LinearRegression
:members:
.. autoclass:: cuml.dask.linear_model.Ridge
:members:
.. autoclass:: cuml.dask.linear_model.Lasso
:members:
.. autoclass:: cuml.dask.linear_model.ElasticNet
:members:
Naive Bayes
-----------
.. autoclass:: cuml.dask.naive_bayes.MultinomialNB
:members:
Solvers
-------
.. autoclass:: cuml.dask.solvers.CD
:members:
Dask Base Classes and Mixins
----------------------------
.. autoclass:: cuml.dask.common.base.BaseEstimator
:members:
.. autoclass:: cuml.dask.common.base.DelayedParallelFunc
:members:
.. autoclass:: cuml.dask.common.base.DelayedPredictionMixin
:members:
.. autoclass:: cuml.dask.common.base.DelayedTransformMixin
:members:
.. autoclass:: cuml.dask.common.base.DelayedInverseTransformMixin
:members:
Experimental
============
.. warning:: The `cuml.experimental` module contains features that are still
under development. It is not recommended to depend on features in this
module as they may change in future releases.
.. note:: Due to the nature of this module, it is not imported by default by
the root `cuml` package. Each `experimental` submodule must be imported
separately.
Linear Models
-------------
.. autoclass:: cuml.experimental.linear_model.Lars
:members:
Model Explainability
--------------------
.. autoclass:: cuml.explainer.TreeExplainer
:members:
| 0 |
rapidsai_public_repos/cuml/docs | rapidsai_public_repos/cuml/docs/source/index.rst | Welcome to cuML's documentation!
=================================
cuML is a suite of fast, GPU-accelerated machine learning algorithms
designed for data science and analytical tasks. Our API mirrors Sklearn's,
and we provide practitioners with the easy fit-predict-transform paradigm
without ever having to program on a GPU.
As data gets larger, algorithms running on a CPU becomes slow and cumbersome.
RAPIDS provides users a streamlined approach where data is initially loaded
in the GPU, and compute tasks can be performed on it directly.
cuML is fully open source, and the RAPIDS team welcomes new and seasoned
contributors, users and hobbyists! Thank you for your wonderful support!
An installation requirement for cuML is that your system must be Linux-like.
Support for Windows is possible in the near future.
.. toctree::
:maxdepth: 2
:caption: Contents:
cuml_intro.rst
api.rst
user_guide.rst
cuml_blogs.rst
Indices and tables
==================
* :ref:`genindex`
* :ref:`modindex`
* :ref:`search`
| 0 |
rapidsai_public_repos/cuml/docs/source | rapidsai_public_repos/cuml/docs/source/_static/references.css |
/* Fix references to not look like parameters */
dl.citation > dt.label {
display: unset !important;
float: left !important;
border: unset !important;
background: unset !important;
padding: unset !important;
margin: unset !important;
font-size: unset !important;
line-height: unset !important;
padding-right: 0.5rem !important;
}
/* Add opening bracket */
dl.citation > dt.label > span::before {
content: "[";
}
/* Add closing bracket */
dl.citation > dt.label > span::after {
content: "]";
} | 0 |
rapidsai_public_repos/cuml/docs/source | rapidsai_public_repos/cuml/docs/source/sphinxext/github_link.py | # This contains code with copyright by the scikit-learn project, subject to the
# license in /thirdparty/LICENSES/LICENSE.scikit_learn
import inspect
import os
import re
import subprocess
import sys
from functools import partial
from operator import attrgetter
orig = inspect.isfunction
# See https://opendreamkit.org/2017/06/09/CythonSphinx/
def isfunction(obj):
orig_val = orig(obj)
new_val = hasattr(type(obj), "__code__")
if (orig_val != new_val):
return new_val
return orig_val
inspect.isfunction = isfunction
REVISION_CMD = 'git rev-parse --short HEAD'
source_regex = re.compile(r"^File: (.*?) \(starting at line ([0-9]*?)\)$",
re.MULTILINE)
def _get_git_revision():
try:
revision = subprocess.check_output(REVISION_CMD.split()).strip()
except (subprocess.CalledProcessError, OSError):
print('Failed to execute git to get revision')
return None
return revision.decode('utf-8')
def _linkcode_resolve(domain, info, package, url_fmt, revision):
"""Determine a link to online source for a class/method/function
This is called by sphinx.ext.linkcode
An example with a long-untouched module that everyone has
>>> _linkcode_resolve('py', {'module': 'tty',
... 'fullname': 'setraw'},
... package='tty',
... url_fmt='http://hg.python.org/cpython/file/'
... '{revision}/Lib/{package}/{path}#L{lineno}',
... revision='xxxx')
'http://hg.python.org/cpython/file/xxxx/Lib/tty/tty.py#L18'
"""
if revision is None:
return
if domain not in ('py', 'pyx'):
return
if not info.get('module') or not info.get('fullname'):
return
class_name = info['fullname'].split('.')[0]
module = __import__(info['module'], fromlist=[class_name])
obj = attrgetter(info['fullname'])(module)
# Unwrap the object to get the correct source
# file in case that is wrapped by a decorator
obj = inspect.unwrap(obj)
fn: str = None
lineno: str = None
try:
fn = inspect.getsourcefile(obj)
except Exception:
fn = None
if not fn:
try:
fn = inspect.getsourcefile(sys.modules[obj.__module__])
except Exception:
fn = None
if not fn:
# Possibly Cython code. Search docstring for source
m = source_regex.search(obj.__doc__)
if (m is not None):
source_file = m.group(1)
lineno = m.group(2)
# fn is expected to be the absolute path.
fn = os.path.relpath(source_file, start=package)
print("{}:{}".format(
os.path.abspath(os.path.join("..", "python", "cuml", fn)),
lineno))
else:
return
else:
if fn.endswith(".pyx"):
sp_path = next(x for x in sys.path if re.match(".*site-packages$", x))
fn = fn.replace("/opt/conda/conda-bld/work/python", sp_path)
# Convert to relative from module root
fn = os.path.relpath(fn,
start=os.path.dirname(
__import__(package).__file__))
# Get the line number if we need it. (Can work without it)
if (lineno is None):
try:
lineno = inspect.getsourcelines(obj)[1]
except Exception:
# Can happen if its a cyfunction. See if it has `__code__`
if (hasattr(obj, "__code__")):
lineno = obj.__code__.co_firstlineno
else:
lineno = ''
return url_fmt.format(revision=revision,
package=package,
path=fn,
lineno=lineno)
def make_linkcode_resolve(package, url_fmt):
"""Returns a linkcode_resolve function for the given URL format
revision is a git commit reference (hash or name)
package is the name of the root module of the package
url_fmt is along the lines of ('https://github.com/USER/PROJECT/'
'blob/{revision}/{package}/'
'{path}#L{lineno}')
"""
revision = _get_git_revision()
return partial(_linkcode_resolve,
revision=revision,
package=package,
url_fmt=url_fmt)
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_cpp.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
set -euo pipefail
. /opt/conda/etc/profile.d/conda.sh
rapids-logger "Generate C++ testing dependencies"
rapids-dependency-file-generator \
--output conda \
--file_key test_cpp \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch)" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n test
# Temporarily allow unbound variables for conda activation.
set +u
conda activate test
set -u
CPP_CHANNEL=$(rapids-download-conda-from-s3 cpp)
RAPIDS_TESTS_DIR=${RAPIDS_TESTS_DIR:-"${PWD}/test-results"}/
mkdir -p "${RAPIDS_TESTS_DIR}"
rapids-print-env
rapids-mamba-retry install \
--channel "${CPP_CHANNEL}" \
libcuml libcuml-tests
rapids-logger "Check GPU usage"
nvidia-smi
EXITCODE=0
trap "EXITCODE=1" ERR
set +e
# Run libcuml gtests from libcuml-tests package
rapids-logger "Run gtests"
ctest -j9 --output-on-failure
rapids-logger "Test script exiting with value: $EXITCODE"
exit ${EXITCODE}
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/build_python.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
set -euo pipefail
source rapids-env-update
export CMAKE_GENERATOR=Ninja
rapids-print-env
package_name="cuml"
package_dir="python"
version=$(rapids-generate-version)
git_commit=$(git rev-parse HEAD)
export RAPIDS_PACKAGE_VERSION=${version}
echo "${version}" > VERSION
sed -i "/^__git_commit__/ s/= .*/= \"${git_commit}\"/g" "${package_dir}/${package_name}/_version.py"
rapids-logger "Begin py build"
CPP_CHANNEL=$(rapids-download-conda-from-s3 cpp)
# TODO: Remove `--no-test` flag once importing on a CPU
# node works correctly
rapids-conda-retry mambabuild \
--no-test \
--channel "${CPP_CHANNEL}" \
conda/recipes/cuml
# Build cuml-cpu only in CUDA 11 jobs since it only depends on python
# version
RAPIDS_CUDA_MAJOR="${RAPIDS_CUDA_VERSION%%.*}"
if [[ ${RAPIDS_CUDA_MAJOR} == "11" ]]; then
rapids-conda-retry mambabuild \
--no-test \
conda/recipes/cuml-cpu
fi
rapids-upload-conda-to-s3 python
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_python_common.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
set -euo pipefail
. /opt/conda/etc/profile.d/conda.sh
rapids-logger "Generate Python testing dependencies"
rapids-dependency-file-generator \
--output conda \
--file_key test_python \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch);py=${RAPIDS_PY_VERSION}" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n test
# Temporarily allow unbound variables for conda activation.
set +u
conda activate test
set -u
rapids-logger "Downloading artifacts from previous jobs"
CPP_CHANNEL=$(rapids-download-conda-from-s3 cpp)
PYTHON_CHANNEL=$(rapids-download-conda-from-s3 python)
RAPIDS_TESTS_DIR=${RAPIDS_TESTS_DIR:-"${PWD}/test-results"}
RAPIDS_COVERAGE_DIR=${RAPIDS_COVERAGE_DIR:-"${PWD}/coverage-results"}
mkdir -p "${RAPIDS_TESTS_DIR}" "${RAPIDS_COVERAGE_DIR}"
rapids-print-env
rapids-mamba-retry install \
--channel "${CPP_CHANNEL}" \
--channel "${PYTHON_CHANNEL}" \
libcuml cuml
rapids-logger "Check GPU usage"
nvidia-smi
# Enable hypothesis testing for nightly test runs.
if [ "${RAPIDS_BUILD_TYPE}" == "nightly" ]; then
export HYPOTHESIS_ENABLED="true"
fi
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/build_wheel.sh | #!/bin/bash
# Copyright (c) 2023, NVIDIA CORPORATION.
set -euo pipefail
package_name="cuml"
package_dir="python"
source rapids-configure-sccache
source rapids-date-string
version=$(rapids-generate-version)
git_commit=$(git rev-parse HEAD)
RAPIDS_PY_CUDA_SUFFIX="$(rapids-wheel-ctk-name-gen ${RAPIDS_CUDA_VERSION})"
# This is the version of the suffix with a preceding hyphen. It's used
# everywhere except in the final wheel name.
PACKAGE_CUDA_SUFFIX="-${RAPIDS_PY_CUDA_SUFFIX}"
# Patch project metadata files to include the CUDA version suffix and version override.
pyproject_file="${package_dir}/pyproject.toml"
sed -i "/^name.*cuml/ s/= \"cuml\"/= \"cuml${PACKAGE_CUDA_SUFFIX}\"/g" ${pyproject_file}
echo "${version}" > VERSION
sed -i "/^__git_commit__ / s/= .*/= \"${git_commit}\"/g" "${package_dir}/${package_name}/_version.py"
# For nightlies we want to ensure that we're pulling in alphas as well. The
# easiest way to do so is to augment the spec with a constraint containing a
# min alpha version that doesn't affect the version bounds but does allow usage
# of alpha versions for that dependency without --pre
alpha_spec=''
if ! rapids-is-release-build; then
alpha_spec=',>=0.0.0a0'
fi
for dep in cudf pylibraft raft-dask rmm; do
sed -r -i "s/${dep}==(.*)\"/${dep}${PACKAGE_CUDA_SUFFIX}==\1${alpha_spec}\"/g" ${pyproject_file}
done
for dep in dask-cuda rapids-dask-dependency; do
sed -r -i "s/${dep}==(.*)\"/${dep}==\1${alpha_spec}\"/g" ${pyproject_file}
done
if [[ $PACKAGE_CUDA_SUFFIX == "-cu12" ]]; then
sed -i "s/cuda-python[<=>\.,0-9]*/cuda-python>=12.0,<13.0/g" ${pyproject_file}
sed -i "s/cupy-cuda11x/cupy-cuda12x/g" ${pyproject_file}
fi
cd ${package_dir}
SKBUILD_CONFIGURE_OPTIONS="-DCUML_BUILD_WHEELS=ON -DDETECT_CONDA_ENV=OFF -DDISABLE_DEPRECATION_WARNINGS=ON -DCPM_cumlprims_mg_SOURCE=${GITHUB_WORKSPACE}/cumlprims_mg/" \
python -m pip wheel . \
-w dist \
-vvv \
--no-deps \
--disable-pip-version-check
mkdir -p final_dist
python -m auditwheel repair -w final_dist dist/*
RAPIDS_PY_WHEEL_NAME="cuml_${RAPIDS_PY_CUDA_SUFFIX}" rapids-upload-wheels-to-s3 final_dist
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/check_style.sh | #!/bin/bash
# Copyright (c) 2020-2023, NVIDIA CORPORATION.
set -euo pipefail
rapids-logger "Create checks conda environment"
. /opt/conda/etc/profile.d/conda.sh
rapids-dependency-file-generator \
--output conda \
--file_key checks \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch);py=${RAPIDS_PY_VERSION}" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n checks
conda activate checks
# Run pre-commit checks
pre-commit run --all-files --show-diff-on-failure
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_wheel.sh | #!/bin/bash
# Copyright (c) 2023, NVIDIA CORPORATION.
set -euo pipefail
mkdir -p ./dist
RAPIDS_PY_CUDA_SUFFIX="$(rapids-wheel-ctk-name-gen ${RAPIDS_CUDA_VERSION})"
RAPIDS_PY_WHEEL_NAME="cuml_${RAPIDS_PY_CUDA_SUFFIX}" rapids-download-wheels-from-s3 ./dist
# On arm also need to install CMake because treelite needs to be compiled (no wheels available for arm).
if [[ "$(arch)" == "aarch64" ]]; then
python -m pip install cmake
fi
# echo to expand wildcard before adding `[extra]` requires for pip
python -m pip install $(echo ./dist/cuml*.whl)[test]
# Run smoke tests for aarch64 pull requests
if [[ "$(arch)" == "aarch64" && "${RAPIDS_BUILD_TYPE}" == "pull-request" ]]; then
python ci/wheel_smoke_test_cuml.py
else
python -m pytest ./python/cuml/tests -k 'not test_sparse_pca_inputs' -n 4 --ignore=python/cuml/tests/dask && python -m pytest ./python/cuml/tests -k 'test_sparse_pca_inputs' && python -m pytest ./python/cuml/tests/dask
fi
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/run_clang_tidy.sh | #!/bin/bash
# Copyright (c) 2023, NVIDIA CORPORATION.
set -euo pipefail
rapids-logger "Create clang_tidy conda environment"
. /opt/conda/etc/profile.d/conda.sh
rapids-dependency-file-generator \
--output conda \
--file_key clang_tidy \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch);py=${RAPIDS_PY_VERSION}" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n clang_tidy
# Temporarily allow unbound variables for conda activation.
set +u && conda activate clang_tidy && set -u
./build.sh --configure-only libcuml
rapids-logger "Run clang-tidy"
python cpp/scripts/run-clang-tidy.py --config pyproject.toml
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/build_cpp.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
set -euo pipefail
source rapids-env-update
export CMAKE_GENERATOR=Ninja
rapids-print-env
version=$(rapids-generate-version)
rapids-logger "Begin cpp build"
RAPIDS_PACKAGE_VERSION=${version} rapids-conda-retry mambabuild conda/recipes/libcuml
rapids-upload-conda-to-s3 cpp
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_python_dask.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
# Common setup steps shared by Python test jobs
source "$(dirname "$0")/test_python_common.sh"
EXITCODE=0
trap "EXITCODE=1" ERR
set +e
rapids-logger "pytest cuml-dask"
cd python/cuml/tests/dask
pytest \
--cache-clear \
--junitxml="${RAPIDS_TESTS_DIR}/junit-cuml-dask.xml" \
--cov-config=../../../.coveragerc \
--cov=cuml_dask \
--cov-report=xml:"${RAPIDS_COVERAGE_DIR}/cuml-dask-coverage.xml" \
--cov-report=term \
.
rapids-logger "Test script exiting with value: $EXITCODE"
exit ${EXITCODE}
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/wheel_smoke_test_cuml.py | """
A simple test for cuML based on scikit-learn.
Adapted from xgboost:
https://raw.githubusercontent.com/rapidsai/xgboost-conda/branch-23.02/recipes/xgboost/test-py-xgboost.py
"""
from cuml.ensemble import RandomForestClassifier
import sklearn.datasets
import sklearn.model_selection
import sklearn.metrics
X, y = sklearn.datasets.load_iris(return_X_y=True)
Xtrn, Xtst, ytrn, ytst = sklearn.model_selection.train_test_split(
X, y, train_size=0.8, random_state=4)
clf = RandomForestClassifier(
max_depth=2,
n_estimators=10,
n_bins=32,
accuracy_metric="multi:softmax")
clf.fit(Xtrn, ytrn)
ypred = clf.predict(Xtst)
acc = sklearn.metrics.accuracy_score(ytst, ypred)
print('cuml RandomForestClassifier accuracy on iris:', acc)
assert acc > 0.9
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_notebooks.sh | #!/bin/bash
# Copyright (c) 2020-2023, NVIDIA CORPORATION.
set -euo pipefail
. /opt/conda/etc/profile.d/conda.sh
rapids-logger "Generate Notebook testing dependencies"
rapids-dependency-file-generator \
--output conda \
--file_key test_notebooks \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch);py=${RAPIDS_PY_VERSION}" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n test
# Temporarily allow unbound variables for conda activation.
set +u
conda activate test
set -u
rapids-logger "Downloading artifacts from previous jobs"
CPP_CHANNEL=$(rapids-download-conda-from-s3 cpp)
PYTHON_CHANNEL=$(rapids-download-conda-from-s3 python)
rapids-print-env
rapids-mamba-retry install \
--channel "${CPP_CHANNEL}" \
--channel "${PYTHON_CHANNEL}" \
libcuml cuml
rapids-logger "Check GPU usage"
nvidia-smi
NOTEBOOKS_EXITCODE=0
trap "NOTEBOOKS_EXITCODE=1" ERR
set +e
rapids-logger "notebook tests cuml"
# Add notebooks that should be skipped here
# (space-separated list of filenames without paths)
SKIPNBS="cuml_benchmarks.ipynb"
NBTEST="$(realpath "$(dirname "$0")/utils/nbtest.sh")"
cd notebooks
for nb in $(find . -name "*.ipynb"); do
nbBasename=$(basename "${nb}")
# Skip all NBs that use dask (in the code or even in their name)
if ((echo "${nb}" | grep -qi dask) || \
(grep -q dask "${nb}")); then
echo "--------------------------------------------------------------------------------"
echo "SKIPPING: ${nb} (suspected Dask usage, not currently automatable)"
echo "--------------------------------------------------------------------------------"
elif (echo " ${SKIPNBS} " | grep -q " ${nbBasename} "); then
echo "--------------------------------------------------------------------------------"
echo "SKIPPING: "${nb}" (listed in skip list)"
echo "--------------------------------------------------------------------------------"
else
nvidia-smi
${NBTEST} "${nbBasename}"
fi
done
rapids-logger "Test script exiting with value: $NOTEBOOKS_EXITCODE"
exit ${NOTEBOOKS_EXITCODE}
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/test_python_singlegpu.sh | #!/bin/bash
# Copyright (c) 2022-2023, NVIDIA CORPORATION.
# Common setup steps shared by Python test jobs
source "$(dirname "$0")/test_python_common.sh"
EXITCODE=0
trap "EXITCODE=1" ERR
set +e
rapids-logger "pytest cuml single GPU..."
cd python/cuml/tests
pytest \
--numprocesses=8 \
--ignore=dask \
--cache-clear \
--junitxml="${RAPIDS_TESTS_DIR}/junit-cuml.xml" \
--cov-config=../../.coveragerc \
--cov=cuml \
--cov-report=xml:"${RAPIDS_COVERAGE_DIR}/cuml-coverage.xml" \
--cov-report=term \
-m "not memleak" \
.
rapids-logger "memory leak pytests..."
pytest \
--numprocesses=1 \
--ignore=dask \
--cache-clear \
--junitxml="${RAPIDS_TESTS_DIR}/junit-cuml-memleak.xml" \
--cov-config=../../.coveragerc \
--cov=cuml \
--cov-report=xml:"${RAPIDS_COVERAGE_DIR}/cuml-memleak-coverage.xml" \
--cov-report=term \
-m "memleak" \
.
rapids-logger "Test script exiting with value: $EXITCODE"
exit ${EXITCODE}
| 0 |
rapidsai_public_repos/cuml | rapidsai_public_repos/cuml/ci/build_docs.sh | #!/bin/bash
set -euo pipefail
rapids-logger "Create test conda environment"
. /opt/conda/etc/profile.d/conda.sh
rapids-dependency-file-generator \
--output conda \
--file_key docs \
--matrix "cuda=${RAPIDS_CUDA_VERSION%.*};arch=$(arch);py=${RAPIDS_PY_VERSION}" | tee env.yaml
rapids-mamba-retry env create --force -f env.yaml -n docs
conda activate docs
rapids-print-env
rapids-logger "Downloading artifacts from previous jobs"
CPP_CHANNEL=$(rapids-download-conda-from-s3 cpp)
PYTHON_CHANNEL=$(rapids-download-conda-from-s3 python)
rapids-mamba-retry install \
--channel "${CPP_CHANNEL}" \
--channel "${PYTHON_CHANNEL}" \
cuml libcuml
export RAPIDS_VERSION_NUMBER="23.12"
export RAPIDS_DOCS_DIR="$(mktemp -d)"
rapids-logger "Build CPP docs"
pushd cpp
doxygen Doxyfile.in
mkdir -p "${RAPIDS_DOCS_DIR}/libcuml/html"
mv html/* "${RAPIDS_DOCS_DIR}/libcuml/html"
popd
rapids-logger "Build Python docs"
pushd docs
sphinx-build -b dirhtml ./source _html -W
sphinx-build -b text ./source _text -W
mkdir -p "${RAPIDS_DOCS_DIR}/cuml/"{html,txt}
mv _html/* "${RAPIDS_DOCS_DIR}/cuml/html"
mv _text/* "${RAPIDS_DOCS_DIR}/cuml/txt"
popd
rapids-upload-docs
| 0 |
rapidsai_public_repos/cuml/ci | rapidsai_public_repos/cuml/ci/release/update-version.sh | #!/bin/bash
# Copyright (c) 2019-2023, NVIDIA CORPORATION.
########################
# cuML Version Updater #
########################
## Usage
# bash update-version.sh <new_version>
# Format is YY.MM.PP - no leading 'v' or trailing 'a'
NEXT_FULL_TAG=$1
# Get current version
CURRENT_TAG=$(git tag --merged HEAD | grep -xE '^v.*' | sort --version-sort | tail -n 1 | tr -d 'v')
CURRENT_MAJOR=$(echo $CURRENT_TAG | awk '{split($0, a, "."); print a[1]}')
CURRENT_MINOR=$(echo $CURRENT_TAG | awk '{split($0, a, "."); print a[2]}')
CURRENT_PATCH=$(echo $CURRENT_TAG | awk '{split($0, a, "."); print a[3]}')
CURRENT_SHORT_TAG=${CURRENT_MAJOR}.${CURRENT_MINOR}
#Get <major>.<minor> for next version
NEXT_MAJOR=$(echo $NEXT_FULL_TAG | awk '{split($0, a, "."); print a[1]}')
NEXT_MINOR=$(echo $NEXT_FULL_TAG | awk '{split($0, a, "."); print a[2]}')
NEXT_SHORT_TAG=${NEXT_MAJOR}.${NEXT_MINOR}
NEXT_UCX_PY_VERSION="$(curl -sL https://version.gpuci.io/rapids/${NEXT_SHORT_TAG}).*"
# Need to distutils-normalize the original version
NEXT_SHORT_TAG_PEP440=$(python -c "from setuptools.extern import packaging; print(packaging.version.Version('${NEXT_SHORT_TAG}'))")
echo "Preparing release $CURRENT_TAG => $NEXT_FULL_TAG"
# Inplace sed replace; workaround for Linux and Mac
function sed_runner() {
sed -i.bak ''"$1"'' $2 && rm -f ${2}.bak
}
# Centralized version file update
echo "${NEXT_FULL_TAG}" > VERSION
# pyproject.toml versions
sed_runner "s/rmm==.*\",/rmm==${NEXT_SHORT_TAG_PEP440}.*\",/g" python/pyproject.toml
sed_runner "s/cudf==.*\",/cudf==${NEXT_SHORT_TAG_PEP440}.*\",/g" python/pyproject.toml
sed_runner "s/pylibraft==.*\",/pylibraft==${NEXT_SHORT_TAG_PEP440}.*\",/g" python/pyproject.toml
sed_runner "s/raft-dask==.*\",/raft-dask==${NEXT_SHORT_TAG_PEP440}.*\",/g" python/pyproject.toml
# CMakeLists
sed_runner 's/'"CUML VERSION .* LANGUAGES"'/'"CUML VERSION ${NEXT_FULL_TAG} LANGUAGES"'/g' cpp/CMakeLists.txt
sed_runner 's/'"set(CUML_VERSION .*)"'/'"set(CUML_VERSION ${NEXT_FULL_TAG})"'/g' python/CMakeLists.txt
# rapids-cmake version
sed_runner 's/'"branch-.*\/RAPIDS.cmake"'/'"branch-${NEXT_SHORT_TAG}\/RAPIDS.cmake"'/g' fetch_rapids.cmake
# RTD update
sed_runner 's/version = .*/version = '"'${NEXT_SHORT_TAG}'"'/g' docs/source/conf.py
sed_runner 's/release = .*/release = '"'${NEXT_FULL_TAG}'"'/g' docs/source/conf.py
# Update project_number (RAPIDS_VERSION) in the CPP doxygen file
sed_runner "s/\(PROJECT_NUMBER.*=\).*/\1 \"${NEXT_SHORT_TAG}\"/g" cpp/Doxyfile.in
# Wheel testing script
sed_runner "s/branch-.*/branch-${NEXT_SHORT_TAG}/g" ci/test_wheel.sh
DEPENDENCIES=(
cudf
dask-cuda
dask-cudf
libcumlprims
libraft-headers
libraft
librmm
pylibraft
raft-dask
rapids-dask-dependency
rmm
)
for FILE in dependencies.yaml conda/environments/*.yaml; do
for DEP in "${DEPENDENCIES[@]}"; do
sed_runner "/- ${DEP}==/ s/==.*/==${NEXT_SHORT_TAG_PEP440}\.*/g" ${FILE};
done
done
sed_runner "s|/branch-[^/]*/|/branch-${NEXT_SHORT_TAG}/|g" README.md
sed_runner "s|/branch-[^/]*/|/branch-${NEXT_SHORT_TAG}/|g" python/README.md
sed_runner "/- rapids-dask-dependency==/ s/==.*/==${NEXT_SHORT_TAG}\.*/g" python/README.md
# Wheel builds clone cumlprims_mg, update its branch
sed_runner "s/extra-repo-sha: branch-.*/extra-repo-sha: branch-${NEXT_SHORT_TAG}/g" .github/workflows/*.yaml
# CI files
for FILE in .github/workflows/*.yaml; do
sed_runner "/shared-workflows/ s/@.*/@branch-${NEXT_SHORT_TAG}/g" "${FILE}"
done
sed_runner "s/RAPIDS_VERSION_NUMBER=\".*/RAPIDS_VERSION_NUMBER=\"${NEXT_SHORT_TAG}\"/g" ci/build_docs.sh
| 0 |
rapidsai_public_repos/cuml/ci | rapidsai_public_repos/cuml/ci/utils/nbtest.sh | #!/bin/bash
# Copyright (c) 2020-2021, NVIDIA CORPORATION.
MAGIC_OVERRIDE_CODE="
def my_run_line_magic(*args, **kwargs):
g=globals()
l={}
for a in args:
try:
exec(str(a),g,l)
except Exception as e:
print('WARNING: %s\n While executing this magic function code:\n%s\n continuing...\n' % (e, a))
else:
g.update(l)
def my_run_cell_magic(*args, **kwargs):
my_run_line_magic(*args, **kwargs)
get_ipython().run_line_magic=my_run_line_magic
get_ipython().run_cell_magic=my_run_cell_magic
"
NO_COLORS=--colors=NoColor
EXITCODE=0
NBTMPDIR="$WORKSPACE/tmp"
mkdir -p ${NBTMPDIR}
for nb in $*; do
NBFILENAME=$1
NBNAME=${NBFILENAME%.*}
NBNAME=${NBNAME##*/}
NBTESTSCRIPT=${NBTMPDIR}/${NBNAME}-test.py
shift
echo --------------------------------------------------------------------------------
echo STARTING: ${NBNAME}
echo --------------------------------------------------------------------------------
jupyter nbconvert --to script ${NBFILENAME} --output ${NBTMPDIR}/${NBNAME}-test
echo "${MAGIC_OVERRIDE_CODE}" > ${NBTMPDIR}/tmpfile
cat ${NBTESTSCRIPT} >> ${NBTMPDIR}/tmpfile
mv ${NBTMPDIR}/tmpfile ${NBTESTSCRIPT}
echo "Running \"ipython ${NO_COLORS} ${NBTESTSCRIPT}\" on $(date)"
echo
time bash -c "ipython ${NO_COLORS} ${NBTESTSCRIPT}; EC=\$?; echo -------------------------------------------------------------------------------- ; echo DONE: ${NBNAME}; exit \$EC"
NBEXITCODE=$?
echo EXIT CODE: ${NBEXITCODE}
echo
EXITCODE=$((EXITCODE | ${NBEXITCODE}))
done
exit ${EXITCODE}
| 0 |
rapidsai_public_repos/cuml/ci | rapidsai_public_repos/cuml/ci/utils/nbtestlog2junitxml.py | # Copyright (c) 2020, NVIDIA CORPORATION.
#########################
# Generate a junit-xml file from parsing a nbtest log #
#########################
import re
from xml.etree.ElementTree import Element, ElementTree
from os import path
import string
from enum import Enum
startingPatt = re.compile(r"^STARTING: ([\w\.\-]+)$")
skippingPatt = re.compile(
r"^SKIPPING: ([\w\.\-]+)\s*(\(([\w\.\-\ \,]+)\))?\s*$"
)
exitCodePatt = re.compile(r"^EXIT CODE: (\d+)$")
folderPatt = re.compile(r"^FOLDER: ([\w\.\-]+)$")
timePatt = re.compile(r"^real\s+([\d\.ms]+)$")
linePatt = re.compile("^" + ("-" * 80) + "$")
def getFileBaseName(filePathName):
return path.splitext(path.basename(filePathName))[0]
def makeTestCaseElement(attrDict):
return Element("testcase", attrib=attrDict)
def makeSystemOutElement(outputLines):
e = Element("system-out")
e.text = "".join(filter(lambda c: c in string.printable, outputLines))
return e
def makeFailureElement(outputLines):
e = Element("failure", message="failed")
e.text = "".join(filter(lambda c: c in string.printable, outputLines))
return e
def setFileNameAttr(attrDict, fileName):
attrDict.update(file=fileName,
classname="",
line="",
name="",
time=""
)
def setClassNameAttr(attrDict, className):
attrDict["classname"] = className
def setTestNameAttr(attrDict, testName):
attrDict["name"] = testName
def setTimeAttr(attrDict, timeVal):
(mins, seconds) = timeVal.split("m")
seconds = float(seconds.strip("s")) + (60 * int(mins))
attrDict["time"] = str(seconds)
def incrNumAttr(element, attr):
newVal = int(element.attrib.get(attr)) + 1
element.attrib[attr] = str(newVal)
def parseLog(logFile, testSuiteElement):
# Example attrs:
################
# errors="0"
# failures="0"
# hostname="a437d6835edf"
# name="pytest"
# skipped="2"
# tests="6"
# time="6.174"
# timestamp="2019-11-18T19:49:47.946307"
with open(logFile) as lf:
testSuiteElement.attrib["tests"] = "0"
testSuiteElement.attrib["errors"] = "0"
testSuiteElement.attrib["failures"] = "0"
testSuiteElement.attrib["skipped"] = "0"
testSuiteElement.attrib["time"] = "0"
testSuiteElement.attrib["timestamp"] = ""
attrDict = {}
setFileNameAttr(attrDict, "nbtest")
parserStateEnum = Enum("parserStateEnum",
"newTest startingLine finishLine exitCode")
parserState = parserStateEnum.newTest
testOutput = ""
for line in lf.readlines():
if parserState == parserStateEnum.newTest:
m = folderPatt.match(line)
if m:
setClassNameAttr(attrDict, m.group(1))
continue
m = skippingPatt.match(line)
if m:
setTestNameAttr(attrDict, getFileBaseName(m.group(1)))
setTimeAttr(attrDict, "0m0s")
skippedElement = makeTestCaseElement(attrDict)
message = m.group(3) or ""
skippedElement.append(
Element("skipped", message=message, type="")
)
testSuiteElement.append(skippedElement)
incrNumAttr(testSuiteElement, "skipped")
incrNumAttr(testSuiteElement, "tests")
continue
m = startingPatt.match(line)
if m:
parserState = parserStateEnum.startingLine
testOutput = ""
setTestNameAttr(attrDict, m.group(1))
setTimeAttr(attrDict, "0m0s")
continue
continue
elif parserState == parserStateEnum.startingLine:
if linePatt.match(line):
parserState = parserStateEnum.finishLine
testOutput = ""
continue
elif parserState == parserStateEnum.finishLine:
if linePatt.match(line):
parserState = parserStateEnum.exitCode
else:
testOutput += line
continue
elif parserState == parserStateEnum.exitCode:
m = exitCodePatt.match(line)
if m:
testCaseElement = makeTestCaseElement(attrDict)
if m.group(1) != "0":
failureElement = makeFailureElement(testOutput)
testCaseElement.append(failureElement)
incrNumAttr(testSuiteElement, "failures")
else:
systemOutElement = makeSystemOutElement(testOutput)
testCaseElement.append(systemOutElement)
testSuiteElement.append(testCaseElement)
parserState = parserStateEnum.newTest
testOutput = ""
incrNumAttr(testSuiteElement, "tests")
continue
m = timePatt.match(line)
if m:
setTimeAttr(attrDict, m.group(1))
continue
continue
if __name__ == "__main__":
import sys
testSuitesElement = Element("testsuites")
testSuiteElement = Element("testsuite",
name="nbtest",
hostname="")
parseLog(sys.argv[1], testSuiteElement)
testSuitesElement.append(testSuiteElement)
ElementTree(testSuitesElement).write(
sys.argv[1]+".xml",
xml_declaration=True
)
| 0 |
rapidsai_public_repos/cuml/ci | rapidsai_public_repos/cuml/ci/checks/black_lists.sh | #!/bin/bash
# Copyright (c) 2019-2023, NVIDIA CORPORATION.
##########################################
# cuML black listed function call Tester #
##########################################
# PR_TARGET_BRANCH is set by the CI environment
git checkout --quiet $PR_TARGET_BRANCH
# Switch back to tip of PR branch
git checkout --quiet current-pr-branch
# Ignore errors during searching
set +e
# Disable history expansion to enable use of ! in perl regex
set +H
RETVAL=0
for black_listed in cudaDeviceSynchronize cudaMalloc cudaMallocManaged cudaFree cudaMallocHost cudaHostAlloc cudaFreeHost; do
TMP=`git --no-pager diff --ignore-submodules -w --minimal -U0 -S"$black_listed" $PR_TARGET_BRANCH | grep '^+' | grep -v '^+++' | grep "$black_listed"`
if [ "$TMP" != "" ]; then
for filename in `git --no-pager diff --ignore-submodules -w --minimal --name-only -S"$black_listed" $PR_TARGET_BRANCH`; do
basefilename=$(basename -- "$filename")
filext="${basefilename##*.}"
if [ "$filext" != "md" ] && [ "$filext" != "sh" ]; then
TMP2=`git --no-pager diff --ignore-submodules -w --minimal -U0 -S"$black_listed" $PR_TARGET_BRANCH -- $filename | grep '^+' | grep -v '^+++' | grep "$black_listed" | grep -vE "^\+[[:space:]]*/{2,}.*$black_listed"`
if [ "$TMP2" != "" ]; then
echo "=== ERROR: black listed function call $black_listed added to $filename ==="
git --no-pager diff --ignore-submodules -w --minimal -S"$black_listed" $PR_TARGET_BRANCH -- $filename
echo "=== END ERROR ==="
RETVAL=1
fi
fi
done
fi
done
for cond_black_listed in cudaMemcpy cudaMemset; do
TMP=`git --no-pager diff --ignore-submodules -w --minimal -U0 -S"$cond_black_listed" $PR_TARGET_BRANCH | grep '^+' | grep -v '^+++' | grep -P "$cond_black_listed(?!Async)"`
if [ "$TMP" != "" ]; then
for filename in `git --no-pager diff --ignore-submodules -w --minimal --name-only -S"$cond_black_listed" $PR_TARGET_BRANCH`; do
basefilename=$(basename -- "$filename")
filext="${basefilename##*.}"
if [ "$filext" != "md" ] && [ "$filext" != "sh" ]; then
TMP2=`git --no-pager diff --ignore-submodules -w --minimal -U0 -S"$cond_black_listed" $PR_TARGET_BRANCH -- $filename | grep '^+' | grep -v '^+++' | grep -P "$cond_black_listed(?!Async)" | grep -vE "^\+[[:space:]]*/{2,}.*$cond_black_listed"`
if [ "$TMP2" != "" ]; then
echo "=== ERROR: black listed function call $cond_black_listed added to $filename ==="
git --no-pager diff --ignore-submodules -w --minimal -S"$cond_black_listed" $PR_TARGET_BRANCH -- $filename
echo "=== END ERROR ==="
RETVAL=1
fi
fi
done
fi
done
exit $RETVAL
| 0 |
rapidsai_public_repos/cuml/ci | rapidsai_public_repos/cuml/ci/checks/copyright.py | # Copyright (c) 2019-2023, NVIDIA CORPORATION.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
import argparse
import datetime
import logging
import os
import re
import sys
from pathlib import Path
from typing import Optional
import git
LOGGER = logging.getLogger("copyright.py")
FILES_TO_INCLUDE = [
re.compile(r"[.](cmake|cpp|cu|cuh|h|hpp|sh|pxd|py|pyx)$"),
re.compile(r"CMakeLists[.]txt$"),
re.compile(r"CMakeLists_standalone[.]txt$"),
re.compile(r"setup[.]cfg$"),
re.compile(r"[.]flake8[.]cython$"),
re.compile(r"meta[.]yaml$"),
]
FILES_TO_EXCLUDE = [
re.compile(r"cpp/src/tsne/cannylab/bh\.cu"),
]
# this will break starting at year 10000, which is probably OK :)
RE_CHECK_SIMPLE = re.compile(
r"Copyright *(?:\(c\))? *(\d{4}),? *NVIDIA C(?:ORPORATION|orporation)"
)
RE_CHECK_DOUBLE = re.compile(
r"Copyright *(?:\(c\))? *(\d{4})-(\d{4}),? *NVIDIA C(?:ORPORATION|orporation)" # noqa: E501
)
class _GitDiffPath(os.PathLike):
"""Utility class to provide PathLike interface for git diff blobs."""
def __init__(self, diff):
self._diff = diff
def __fspath__(self):
return self._diff.b_path
def __str__(self):
return str(self.__fspath__())
def exists(self):
return self._diff.b_path is not None and self._diff.b_blob.size > 0
def is_file(self):
return self.exists()
def read_text(self, encoding="utf-8", errors="strict"):
return self._diff.b_blob.data_stream.read().decode(
encoding=encoding, errors=errors
)
def write_text(self, data, encoding=None, errors=None, newline=None):
Path(self).write_text(
data, encoding=encoding, errors=errors, newline=newline
)
def find_upstream_base_branch(base_branch: str):
if base_branch in repo.refs:
# Use the tracking branch of the local reference if it exists. This
# returns None if no tracking branch is set.
return repo.refs[base_branch]
else:
candidate_branches = [
remote.refs[base_branch]
for remote in repo.remotes
if base_branch in remote.refs
]
if len(candidate_branches) > 0:
return sorted(
candidate_branches,
key=lambda branch: branch.commit.committed_datetime,
)[-1]
raise RuntimeError(f"Unable to find ref for '{base_branch}'.")
def find_git_modified_files(repo, upstream_target_branch):
"""Get a set of all modified files, as Diff objects.
The files returned have been modified in git since the merge base of HEAD
and the upstream of the target branch. We return the Diff objects so that
we can read only the staged changes.
"""
merge_base = repo.merge_base("HEAD", upstream_target_branch.commit)[0]
for f in merge_base.diff():
if f.b_path is not None and not f.deleted_file and f.b_blob.size > 0:
yield _GitDiffPath(f)
def get_copyright_years(line):
if res := RE_CHECK_SIMPLE.search(line):
return int(res.group(1)), int(res.group(1))
if res := RE_CHECK_DOUBLE.search(line):
return int(res.group(1)), int(res.group(2))
return None, None
def replace_current_year(line, start, end):
# first turn a simple regex into double (if applicable). then update years
res = RE_CHECK_SIMPLE.sub(r"Copyright (c) \1-\1, NVIDIA CORPORATION", line)
res = RE_CHECK_DOUBLE.sub(
rf"Copyright (c) {start:04d}-{end:04d}, NVIDIA CORPORATION",
res,
)
return res
def find_copyright_issues(path: Path):
"""Checks for copyright headers and their years."""
if not path.is_file():
yield 0, f"No such file or a directory '{path}'.", None
return
this_year = datetime.datetime.now().year
lines = path.read_text().splitlines()
for line_no, line in enumerate(lines):
start, end = get_copyright_years(line)
if start is None:
continue
if start > end:
yield line_no, "First year after second year in the copyright header (manual fix required)", None
elif this_year < start:
yield line_no, "Current year not included in the copyright header", replace_current_year(
line, this_year, end
)
elif this_year > end:
yield line_no, "Current year not included in the copyright header", replace_current_year(
line, start, this_year
)
break
else:
# Did not find copyright header.
yield 0, "Copyright header missing or formatted incorrectly (manual fix required)", None
def perform_updates(path: Path, updates):
lines = path.read_text().split("\n")
for line_no, fix in updates:
if fix:
lines[line_no] = fix
print(f"Fixed {path}:{line_no}")
path.write_text("\n".join(lines))
def find_files(paths, repo, target_branch):
if paths and target_branch:
git_modified = [
os.fspath(f) for f in find_git_modified_files(repo, target_branch)
]
for path in paths:
yield from (f for f in walk(path) if os.fspath(f) in git_modified)
elif paths:
for path in paths:
yield from walk(path)
elif target_branch:
yield from find_git_modified_files(repo, target_branch)
else:
yield from walk(Path.cwd())
def walk(top: Optional[os.PathLike], pathFilter=None):
if top.is_file():
if pathFilter is None or pathFilter(top):
yield top
elif top.is_dir():
for root, _, files in os.walk(top):
for name in files:
path = Path(top, root, name)
if pathFilter is None or pathFilter(path):
yield path
else:
yield top
def main(repo):
"""
Checks for copyright headers in all the modified files. In case of local
repo, this script will just look for uncommitted files and in case of CI
it compares between branches "$PR_TARGET_BRANCH" and "current-pr-branch"
"""
default_base_branch = str(repo.active_branch)
argparser = argparse.ArgumentParser(
"Checks for a consistent copyright header in git's modified files"
)
argparser.add_argument(
dest="files",
metavar="filename",
nargs="*",
type=Path,
help="If provided, only check the files the provided names.",
)
argparser.add_argument(
"-i",
"--fix-in-place",
action="store_true",
required=False,
help="If set, "
"update the current year if a header is already "
"present and well formatted.",
)
argparser.add_argument(
"--base-branch",
default=default_base_branch,
help=f"Specify which branch/commit to compare against (default: {default_base_branch})",
)
argparser.add_argument(
"--exclude",
dest="exclude",
action="append",
default=["python/cuml/_thirdparty/"],
help=(
"Exclude the paths specified (regexp). "
"Can be specified multiple times."
),
)
argparser.add_argument("-v", "--verbosity", action="count", default=0)
args = argparser.parse_args()
logging.basicConfig(level=max(0, logging.ERROR - args.verbosity * 10))
upstream_base_branch = find_upstream_base_branch(str(args.base_branch))
exempted = FILES_TO_EXCLUDE + [re.compile(ex) for ex in args.exclude]
def include(path: os.PathLike):
for exempt in exempted:
if exempt.search(os.fspath(path)):
return False
for included in FILES_TO_INCLUDE:
if included.search(os.fspath(path)):
break
else:
return False
return path.is_file()
files = [
f
for f in find_files(args.files, repo, upstream_base_branch)
if include(f)
]
issues = [(file, list(find_copyright_issues(file))) for file in files]
num_fixes = 0
num_issues = 0
for path, issues_ in issues:
fixes = []
for line_no, description, fix in issues_:
print(f"{path}:{line_no}: {description}")
num_issues += 1
if fix:
fixes.append((line_no, fix))
num_fixes += len(fixes)
if fixes and args.fix_in_place:
perform_updates(path, fixes)
try:
if args.fix_in_place:
if num_fixes < num_issues:
raise RuntimeError("Unable to fix all issues.")
elif 0 < num_fixes < num_issues:
raise RuntimeError(
"Use the '-i/--fix-in-place' option to fix some of the issues."
)
elif 0 < num_fixes == num_issues:
raise RuntimeError(
"Use the '-i/--fix-in-place' option to fix the issues."
)
except RuntimeError as message:
print(message)
return 1
else:
return 0
if __name__ == "__main__":
repo = git.Repo()
sys.exit(main(repo))
| 0 |
rapidsai_public_repos/cuml/thirdparty | rapidsai_public_repos/cuml/thirdparty/LICENSES/LICENSE.scikit_learn | New BSD License
Copyright (c) 2007–2020 The scikit-learn developers.
All rights reserved.
Redistribution and use in source and binary forms, with or without
modification, are permitted provided that the following conditions are met:
a. Redistributions of source code must retain the above copyright notice,
this list of conditions and the following disclaimer.
b. Redistributions in binary form must reproduce the above copyright
notice, this list of conditions and the following disclaimer in the
documentation and/or other materials provided with the distribution.
c. Neither the name of the Scikit-learn Developers nor the names of
its contributors may be used to endorse or promote products
derived from this software without specific prior written
permission.
THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
ARE DISCLAIMED. IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE FOR
ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH
DAMAGE.
| 0 |
rapidsai_public_repos/cuml/thirdparty | rapidsai_public_repos/cuml/thirdparty/LICENSES/LICENSE.faiss | MIT License
Copyright (c) Facebook, Inc. and its affiliates.
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE. | 0 |
rapidsai_public_repos/cuml/thirdparty | rapidsai_public_repos/cuml/thirdparty/LICENSES/LICENSE.umap | BSD 3-Clause License
Copyright (c) 2017, Leland McInnes
All rights reserved.
Redistribution and use in source and binary forms, with or without
modification, are permitted provided that the following conditions are met:
* Redistributions of source code must retain the above copyright notice, this
list of conditions and the following disclaimer.
* Redistributions in binary form must reproduce the above copyright notice,
this list of conditions and the following disclaimer in the documentation
and/or other materials provided with the distribution.
* Neither the name of the copyright holder nor the names of its
contributors may be used to endorse or promote products derived from
this software without specific prior written permission.
THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE
DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT HOLDER OR CONTRIBUTORS BE LIABLE
FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER
CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
| 0 |
rapidsai_public_repos/cuml/thirdparty | rapidsai_public_repos/cuml/thirdparty/LICENSES/LICENSE.H2O4GPU | This software contains source code based on [H2O4GPU](https://github.com/h2oai/h2o4gpu), which has the following license terms:
```
Apache License
Version 2.0, January 2004
http://www.apache.org/licenses/
TERMS AND CONDITIONS FOR USE, REPRODUCTION, AND DISTRIBUTION
1. Definitions.
"License" shall mean the terms and conditions for use, reproduction,
and distribution as defined by Sections 1 through 9 of this document.
"Licensor" shall mean the copyright owner or entity authorized by
the copyright owner that is granting the License.
"Legal Entity" shall mean the union of the acting entity and all
other entities that control, are controlled by, or are under common
control with that entity. For the purposes of this definition,
"control" means (i) the power, direct or indirect, to cause the
direction or management of such entity, whether by contract or
otherwise, or (ii) ownership of fifty percent (50%) or more of the
outstanding shares, or (iii) beneficial ownership of such entity.
"You" (or "Your") shall mean an individual or Legal Entity
exercising permissions granted by this License.
"Source" form shall mean the preferred form for making modifications,
including but not limited to software source code, documentation
source, and configuration files.
"Object" form shall mean any form resulting from mechanical
transformation or translation of a Source form, including but
not limited to compiled object code, generated documentation,
and conversions to other media types.
"Work" shall mean the work of authorship, whether in Source or
Object form, made available under the License, as indicated by a
copyright notice that is included in or attached to the work
(an example is provided in the Appendix below).
"Derivative Works" shall mean any work, whether in Source or Object
form, that is based on (or derived from) the Work and for which the
editorial revisions, annotations, elaborations, or other modifications
represent, as a whole, an original work of authorship. For the purposes
of this License, Derivative Works shall not include works that remain
separable from, or merely link (or bind by name) to the interfaces of,
the Work and Derivative Works thereof.
"Contribution" shall mean any work of authorship, including
the original version of the Work and any modifications or additions
to that Work or Derivative Works thereof, that is intentionally
submitted to Licensor for inclusion in the Work by the copyright owner
or by an individual or Legal Entity authorized to submit on behalf of
the copyright owner. For the purposes of this definition, "submitted"
means any form of electronic, verbal, or written communication sent
to the Licensor or its representatives, including but not limited to
communication on electronic mailing lists, source code control systems,
and issue tracking systems that are managed by, or on behalf of, the
Licensor for the purpose of discussing and improving the Work, but
excluding communication that is conspicuously marked or otherwise
designated in writing by the copyright owner as "Not a Contribution."
"Contributor" shall mean Licensor and any individual or Legal Entity
on behalf of whom a Contribution has been received by Licensor and
subsequently incorporated within the Work.
2. Grant of Copyright License. Subject to the terms and conditions of
this License, each Contributor hereby grants to You a perpetual,
worldwide, non-exclusive, no-charge, royalty-free, irrevocable
copyright license to reproduce, prepare Derivative Works of,
publicly display, publicly perform, sublicense, and distribute the
Work and such Derivative Works in Source or Object form.
3. Grant of Patent License. Subject to the terms and conditions of
this License, each Contributor hereby grants to You a perpetual,
worldwide, non-exclusive, no-charge, royalty-free, irrevocable
(except as stated in this section) patent license to make, have made,
use, offer to sell, sell, import, and otherwise transfer the Work,
where such license applies only to those patent claims licensable
by such Contributor that are necessarily infringed by their
Contribution(s) alone or by combination of their Contribution(s)
with the Work to which such Contribution(s) was submitted. If You
institute patent litigation against any entity (including a
cross-claim or counterclaim in a lawsuit) alleging that the Work
or a Contribution incorporated within the Work constitutes direct
or contributory patent infringement, then any patent licenses
granted to You under this License for that Work shall terminate
as of the date such litigation is filed.
4. Redistribution. You may reproduce and distribute copies of the
Work or Derivative Works thereof in any medium, with or without
modifications, and in Source or Object form, provided that You
meet the following conditions:
(a) You must give any other recipients of the Work or
Derivative Works a copy of this License; and
(b) You must cause any modified files to carry prominent notices
stating that You changed the files; and
(c) You must retain, in the Source form of any Derivative Works
that You distribute, all copyright, patent, trademark, and
attribution notices from the Source form of the Work,
excluding those notices that do not pertain to any part of
the Derivative Works; and
(d) If the Work includes a "NOTICE" text file as part of its
distribution, then any Derivative Works that You distribute must
include a readable copy of the attribution notices contained
within such NOTICE file, excluding those notices that do not
pertain to any part of the Derivative Works, in at least one
of the following places: within a NOTICE text file distributed
as part of the Derivative Works; within the Source form or
documentation, if provided along with the Derivative Works; or,
within a display generated by the Derivative Works, if and
wherever such third-party notices normally appear. The contents
of the NOTICE file are for informational purposes only and
do not modify the License. You may add Your own attribution
notices within Derivative Works that You distribute, alongside
or as an addendum to the NOTICE text from the Work, provided
that such additional attribution notices cannot be construed
as modifying the License.
You may add Your own copyright statement to Your modifications and
may provide additional or different license terms and conditions
for use, reproduction, or distribution of Your modifications, or
for any such Derivative Works as a whole, provided Your use,
reproduction, and distribution of the Work otherwise complies with
the conditions stated in this License.
5. Submission of Contributions. Unless You explicitly state otherwise,
any Contribution intentionally submitted for inclusion in the Work
by You to the Licensor shall be under the terms and conditions of
this License, without any additional terms or conditions.
Notwithstanding the above, nothing herein shall supersede or modify
the terms of any separate license agreement you may have executed
with Licensor regarding such Contributions.
6. Trademarks. This License does not grant permission to use the trade
names, trademarks, service marks, or product names of the Licensor,
except as required for reasonable and customary use in describing the
origin of the Work and reproducing the content of the NOTICE file.
7. Disclaimer of Warranty. Unless required by applicable law or
agreed to in writing, Licensor provides the Work (and each
Contributor provides its Contributions) on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or
implied, including, without limitation, any warranties or conditions
of TITLE, NON-INFRINGEMENT, MERCHANTABILITY, or FITNESS FOR A
PARTICULAR PURPOSE. You are solely responsible for determining the
appropriateness of using or redistributing the Work and assume any
risks associated with Your exercise of permissions under this License.
8. Limitation of Liability. In no event and under no legal theory,
whether in tort (including negligence), contract, or otherwise,
unless required by applicable law (such as deliberate and grossly
negligent acts) or agreed to in writing, shall any Contributor be
liable to You for damages, including any direct, indirect, special,
incidental, or consequential damages of any character arising as a
result of this License or out of the use or inability to use the
Work (including but not limited to damages for loss of goodwill,
work stoppage, computer failure or malfunction, or any and all
other commercial damages or losses), even if such Contributor
has been advised of the possibility of such damages.
9. Accepting Warranty or Additional Liability. While redistributing
the Work or Derivative Works thereof, You may choose to offer,
and charge a fee for, acceptance of support, warranty, indemnity,
or other liability obligations and/or rights consistent with this
License. However, in accepting such obligations, You may act only
on Your own behalf and on Your sole responsibility, not on behalf
of any other Contributor, and only if You agree to indemnify,
defend, and hold each Contributor harmless for any liability
incurred by, or claims asserted against, such Contributor by reason
of your accepting any such warranty or additional liability.
END OF TERMS AND CONDITIONS
APPENDIX: How to apply the Apache License to your work.
To apply the Apache License to your work, attach the following
boilerplate notice, with the fields enclosed by brackets "[]"
replaced with your own identifying information. (Don't include
the brackets!) The text should be enclosed in the appropriate
comment syntax for the file format. We also recommend that a
file or class name and description of purpose be included on the
same "printed page" as the copyright notice for easier
identification within third-party archives.
Copyright 2017-2018 H2O.ai, Inc.
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
H204GPU is based on original work under BSD-3 license by:
Copyright (c) 2015, Christopher Fougner, Stephen Boyd, Stanford University
All rights reserved.
Redistribution and use in source and binary forms, with or without
modification, are permitted provided that the following conditions are met:
* Redistributions of source code must retain the above copyright
notice, this list of conditions and the following disclaimer.
* Redistributions in binary form must reproduce the above copyright
notice, this list of conditions and the following disclaimer in the
documentation and/or other materials provided with the distribution.
* Neither the name of the <organization> nor the
names of its contributors may be used to endorse or promote products
derived from this software without specific prior written permission.
THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS" AND
ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE
DISCLAIMED. IN NO EVENT SHALL <COPYRIGHT HOLDER> BE LIABLE FOR ANY
DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
(INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND
ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
(INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
``` | 0 |
rapidsai_public_repos | rapidsai_public_repos/rvc/README.md | # rvc
`rvc` (_RAPIDS version converter_) is a tool built with Golang that automatically
convert a `RAPIDS` version (CalVer) to a `ucx-py` version (SemVer) and vice versa.
## Motivation
In June 2021, RAPIDS moved from a SemVer versioning to a CalVer versioning.
As `ucx-py` is expected to be upstreamd to `ucx`, it is not possible to adopt
a CalVer versioning for it, as the versions would have been greater than the
current `ucx` version. `rvc` is designed to ease the conversion between both
versioning.
## Deliverables
`rvc` is published in two different ways:
- As an AWS Lambda instance
- As a CLI binary
### AWS Lambda instance
`rvc` is deployed as an AWS Lambda instance using the _Serverless_ framework.
The deployment configuration can be seen in the
[serverless.yaml](https://github.com/rapidsai/rvc/blob/main/serverless.yaml) file.
A deployment will happen automatically anytime a change is merged to the main branch.
See the [deploy.yaml](https://github.com/rapidsai/rvc/blob/main/.github/workflows/deploy.yaml)
GitHub Action for more details.
`rvc` is deployed at this endpoint: https://version.gpuci.io
Two different routes are exposed:
- https://version.gpuci.io/ucx-py/{version}: Converts a `ucx-py` version to a `RAPIDS` version
- https://version.gpuci.io/rapids/{version}: Converts a `RAPIDS` version to a `ucx-py` version
Examples:
```sh
$ RAPIDS_VER=$(curl -sL https://version.gpuci.io/ucx-py/0.22)
$ echo "${RAPIDS_VER}"
21.10
```
```sh
$ UCX_PY_VER=$(curl -sL https://version.gpuci.io/rapids/21.12)
$ echo "${UCX_PY_VER}"
0.23
```
### CLI binary
`rvc` is also available as a CLI binary.
#### Installation
Download the latest binary from GitHub and add it to one of your `PATH` directories:
```sh
wget https://github.com/rapidsai/rvc/releases/latest/download/rvc -O rvc
chmod +x rvc
sudo mv ./rvc /usr/local/bin
```
#### Usage
```
Usage of rvc:
-rapids string
Rapids version
-ucx-py string
ucx-py version
```
`-rapids` and `ucx-py` options are mutually exclusive.
Examples:
```sh
$ rvc -rapids 21.12
0.23
```
```sh
$ rvc -ucx-py 0.22
21.10
```
## Contributing
### Add a new version mapping
If you need to add a new version mapping, you only need to update this
[map](https://github.com/rapidsai/rvc/blob/main/pkg/rvc/rvc.go#L15).
### Improving `rvc`
Requirements:
- golang >= 1.17
- serverless
A Makefile with some useful rules is provided:
- `make build`: Run unit tests and build CLI and Serverless binaries
- `make test`: Run unit tests
- `make build_cli`: Build CLI binary
- `make build_serverless`: Build Serverless binary
- `make fmt`: Format code
- `make coverage`: Compute and display tests coverage
| 0 |
rapidsai_public_repos | rapidsai_public_repos/rvc/go.sum | github.com/BurntSushi/toml v0.3.1/go.mod h1:xHWCNGjB5oqiDr8zfno3MHue2Ht5sIBksp03qcyfWMU=
github.com/aws/aws-lambda-go v1.27.0 h1:aLzrJwdyHoF1A18YeVdJjX8Ixkd+bpogdxVInvHcWjM=
github.com/aws/aws-lambda-go v1.27.0/go.mod h1:jJmlefzPfGnckuHdXX7/80O3BvUUi12XOkbv4w9SGLU=
github.com/cpuguy83/go-md2man/v2 v2.0.0-20190314233015-f79a8a8ca69d/go.mod h1:maD7wRr/U5Z6m/iR4s+kqSMx2CaBsrgA7czyZG/E6dU=
github.com/cpuguy83/go-md2man/v2 v2.0.0/go.mod h1:maD7wRr/U5Z6m/iR4s+kqSMx2CaBsrgA7czyZG/E6dU=
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c=
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
github.com/pmezard/go-difflib v1.0.0 h1:4DBwDE0NGyQoBHbLQYPwSUPoCMWR5BEzIk/f1lZbAQM=
github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4=
github.com/russross/blackfriday/v2 v2.0.1/go.mod h1:+Rmxgy9KzJVeS9/2gXHxylqXiyQDYRxCVz55jmeOWTM=
github.com/shurcooL/sanitized_anchor_name v1.0.0/go.mod h1:1NzhyTcUVG4SuEtjjoZeVRXNmyL/1OwPU0+IJeTBvfc=
github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME=
github.com/stretchr/testify v1.6.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
github.com/stretchr/testify v1.7.0 h1:nwc3DEeHmmLAfoZucVR881uASk0Mfjw8xYJ99tb5CcY=
github.com/stretchr/testify v1.7.0/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
github.com/urfave/cli/v2 v2.2.0/go.mod h1:SE9GqnLQmjVa0iPEY0f1w3ygNIYcIJ0OKPMoW2caLfQ=
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405 h1:yhCVgyC4o1eVCa2tZl7eS0r+SDo693bJlVdllGtEeKM=
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
gopkg.in/yaml.v2 v2.2.2/go.mod h1:hI93XBmqTisBFMUTm0b8Fm+jr3Dg1NNxqwp+5A1VGuI=
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
gopkg.in/yaml.v3 v3.0.0-20200615113413-eeeca48fe776 h1:tQIYjPdBoyREyB9XMu+nnTclpTYkz2zFM+lzLJFO4gQ=
gopkg.in/yaml.v3 v3.0.0-20200615113413-eeeca48fe776/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
| 0 |
rapidsai_public_repos | rapidsai_public_repos/rvc/go.mod | module github.com/rapidsai/rvc
go 1.17
require (
github.com/aws/aws-lambda-go v1.27.0
github.com/stretchr/testify v1.7.0
)
require (
github.com/davecgh/go-spew v1.1.1 // indirect
github.com/pmezard/go-difflib v1.0.0 // indirect
gopkg.in/yaml.v3 v3.0.0-20200615113413-eeeca48fe776 // indirect
)
| 0 |
rapidsai_public_repos | rapidsai_public_repos/rvc/Makefile | VERSION = $(shell git describe --tags --dirty --always)
LDFLAGS = "-s -w -X github.com/rapidsai/rvc/pkg/version.version=$(VERSION)"
all: build
build: test build_serverless build_cli
build_serverless:
@mkdir -p bin
GOARCH=amd64 GOOS=linux go build -mod=vendor -ldflags=$(LDFLAGS) -o bin/rvc_serverless ./cmd/rvc_serverless/...
build_cli:
@mkdir -p bin
GOARCH=amd64 GOOS=linux go build -mod=vendor -ldflags=$(LDFLAGS) -o bin/rvc ./cmd/rvc_cli/...
test:
go test ./pkg/...
fmt:
@gofmt -w -l $$(find pkg/ cmd/ -name '*.go')
coverage:
go test -coverprofile=coverage.out ./pkg/...
go tool cover -func=coverage.out
go tool cover -html=coverage.out
@rm coverage.out
clean:
@rm -r bin/
| 0 |
rapidsai_public_repos | rapidsai_public_repos/rvc/serverless.yml | service: rvc
frameworkVersion: '3'
provider:
name: aws
runtime: go1.x
lambdaHashingVersion: 20201221
region: us-east-2
logRetentionInDays: 30
memorySize: 1024
deploymentBucket:
name: rapidsai-serverless-deployments
plugins:
- serverless-domain-manager
custom:
customDomain:
autoDomain: true
certificateName: '*.gpuci.io'
createRoute53Record: true
domainName: 'version.gpuci.io'
endpointType: regional
package:
exclude:
- ./**
include:
- ./bin/rvc_serverless
functions:
rvc_rapids:
handler: bin/rvc_serverless
events:
- http:
path: /rapids/{version}
method: get
request:
parameters:
paths:
version: true
rvc_ucx_py:
handler: bin/rvc_serverless
events:
- http:
path: /ucx-py/{version}
method: get
request:
parameters:
paths:
version: true
| 0 |
rapidsai_public_repos/rvc | rapidsai_public_repos/rvc/vendor/modules.txt | # github.com/aws/aws-lambda-go v1.27.0
## explicit; go 1.12
github.com/aws/aws-lambda-go/events
github.com/aws/aws-lambda-go/lambda
github.com/aws/aws-lambda-go/lambda/handlertrace
github.com/aws/aws-lambda-go/lambda/messages
github.com/aws/aws-lambda-go/lambdacontext
# github.com/davecgh/go-spew v1.1.1
## explicit
github.com/davecgh/go-spew/spew
# github.com/pmezard/go-difflib v1.0.0
## explicit
github.com/pmezard/go-difflib/difflib
# github.com/stretchr/testify v1.7.0
## explicit; go 1.13
github.com/stretchr/testify/assert
github.com/stretchr/testify/require
# gopkg.in/yaml.v3 v3.0.0-20200615113413-eeeca48fe776
## explicit
gopkg.in/yaml.v3
| 0 |
rapidsai_public_repos/rvc/vendor/gopkg.in | rapidsai_public_repos/rvc/vendor/gopkg.in/yaml.v3/decode.go | //
// Copyright (c) 2011-2019 Canonical Ltd
//
// Licensed under the Apache License, Version 2.0 (the "License");
// you may not use this file except in compliance with the License.
// You may obtain a copy of the License at
//
// http://www.apache.org/licenses/LICENSE-2.0
//
// Unless required by applicable law or agreed to in writing, software
// distributed under the License is distributed on an "AS IS" BASIS,
// WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
// See the License for the specific language governing permissions and
// limitations under the License.
package yaml
import (
"encoding"
"encoding/base64"
"fmt"
"io"
"math"
"reflect"
"strconv"
"time"
)
// ----------------------------------------------------------------------------
// Parser, produces a node tree out of a libyaml event stream.
type parser struct {
parser yaml_parser_t
event yaml_event_t
doc *Node
anchors map[string]*Node
doneInit bool
textless bool
}
func newParser(b []byte) *parser {
p := parser{}
if !yaml_parser_initialize(&p.parser) {
panic("failed to initialize YAML emitter")
}
if len(b) == 0 {
b = []byte{'\n'}
}
yaml_parser_set_input_string(&p.parser, b)
return &p
}
func newParserFromReader(r io.Reader) *parser {
p := parser{}
if !yaml_parser_initialize(&p.parser) {
panic("failed to initialize YAML emitter")
}
yaml_parser_set_input_reader(&p.parser, r)
return &p
}
func (p *parser) init() {
if p.doneInit {
return
}
p.anchors = make(map[string]*Node)
p.expect(yaml_STREAM_START_EVENT)
p.doneInit = true
}
func (p *parser) destroy() {
if p.event.typ != yaml_NO_EVENT {
yaml_event_delete(&p.event)
}
yaml_parser_delete(&p.parser)
}
// expect consumes an event from the event stream and
// checks that it's of the expected type.
func (p *parser) expect(e yaml_event_type_t) {
if p.event.typ == yaml_NO_EVENT {
if !yaml_parser_parse(&p.parser, &p.event) {
p.fail()
}
}
if p.event.typ == yaml_STREAM_END_EVENT {
failf("attempted to go past the end of stream; corrupted value?")
}
if p.event.typ != e {
p.parser.problem = fmt.Sprintf("expected %s event but got %s", e, p.event.typ)
p.fail()
}
yaml_event_delete(&p.event)
p.event.typ = yaml_NO_EVENT
}
// peek peeks at the next event in the event stream,
// puts the results into p.event and returns the event type.
func (p *parser) peek() yaml_event_type_t {
if p.event.typ != yaml_NO_EVENT {
return p.event.typ
}
if !yaml_parser_parse(&p.parser, &p.event) {
p.fail()
}
return p.event.typ
}
func (p *parser) fail() {
var where string
var line int
if p.parser.context_mark.line != 0 {
line = p.parser.context_mark.line
// Scanner errors don't iterate line before returning error
if p.parser.error == yaml_SCANNER_ERROR {
line++
}
} else if p.parser.problem_mark.line != 0 {
line = p.parser.problem_mark.line
// Scanner errors don't iterate line before returning error
if p.parser.error == yaml_SCANNER_ERROR {
line++
}
}
if line != 0 {
where = "line " + strconv.Itoa(line) + ": "
}
var msg string
if len(p.parser.problem) > 0 {
msg = p.parser.problem
} else {
msg = "unknown problem parsing YAML content"
}
failf("%s%s", where, msg)
}
func (p *parser) anchor(n *Node, anchor []byte) {
if anchor != nil {
n.Anchor = string(anchor)
p.anchors[n.Anchor] = n
}
}
func (p *parser) parse() *Node {
p.init()
switch p.peek() {
case yaml_SCALAR_EVENT:
return p.scalar()
case yaml_ALIAS_EVENT:
return p.alias()
case yaml_MAPPING_START_EVENT:
return p.mapping()
case yaml_SEQUENCE_START_EVENT:
return p.sequence()
case yaml_DOCUMENT_START_EVENT:
return p.document()
case yaml_STREAM_END_EVENT:
// Happens when attempting to decode an empty buffer.
return nil
case yaml_TAIL_COMMENT_EVENT:
panic("internal error: unexpected tail comment event (please report)")
default:
panic("internal error: attempted to parse unknown event (please report): " + p.event.typ.String())
}
}
func (p *parser) node(kind Kind, defaultTag, tag, value string) *Node {
var style Style
if tag != "" && tag != "!" {
tag = shortTag(tag)
style = TaggedStyle
} else if defaultTag != "" {
tag = defaultTag
} else if kind == ScalarNode {
tag, _ = resolve("", value)
}
n := &Node{
Kind: kind,
Tag: tag,
Value: value,
Style: style,
}
if !p.textless {
n.Line = p.event.start_mark.line + 1
n.Column = p.event.start_mark.column + 1
n.HeadComment = string(p.event.head_comment)
n.LineComment = string(p.event.line_comment)
n.FootComment = string(p.event.foot_comment)
}
return n
}
func (p *parser) parseChild(parent *Node) *Node {
child := p.parse()
parent.Content = append(parent.Content, child)
return child
}
func (p *parser) document() *Node {
n := p.node(DocumentNode, "", "", "")
p.doc = n
p.expect(yaml_DOCUMENT_START_EVENT)
p.parseChild(n)
if p.peek() == yaml_DOCUMENT_END_EVENT {
n.FootComment = string(p.event.foot_comment)
}
p.expect(yaml_DOCUMENT_END_EVENT)
return n
}
func (p *parser) alias() *Node {
n := p.node(AliasNode, "", "", string(p.event.anchor))
n.Alias = p.anchors[n.Value]
if n.Alias == nil {
failf("unknown anchor '%s' referenced", n.Value)
}
p.expect(yaml_ALIAS_EVENT)
return n
}
func (p *parser) scalar() *Node {
var parsedStyle = p.event.scalar_style()
var nodeStyle Style
switch {
case parsedStyle&yaml_DOUBLE_QUOTED_SCALAR_STYLE != 0:
nodeStyle = DoubleQuotedStyle
case parsedStyle&yaml_SINGLE_QUOTED_SCALAR_STYLE != 0:
nodeStyle = SingleQuotedStyle
case parsedStyle&yaml_LITERAL_SCALAR_STYLE != 0:
nodeStyle = LiteralStyle
case parsedStyle&yaml_FOLDED_SCALAR_STYLE != 0:
nodeStyle = FoldedStyle
}
var nodeValue = string(p.event.value)
var nodeTag = string(p.event.tag)
var defaultTag string
if nodeStyle == 0 {
if nodeValue == "<<" {
defaultTag = mergeTag
}
} else {
defaultTag = strTag
}
n := p.node(ScalarNode, defaultTag, nodeTag, nodeValue)
n.Style |= nodeStyle
p.anchor(n, p.event.anchor)
p.expect(yaml_SCALAR_EVENT)
return n
}
func (p *parser) sequence() *Node {
n := p.node(SequenceNode, seqTag, string(p.event.tag), "")
if p.event.sequence_style()&yaml_FLOW_SEQUENCE_STYLE != 0 {
n.Style |= FlowStyle
}
p.anchor(n, p.event.anchor)
p.expect(yaml_SEQUENCE_START_EVENT)
for p.peek() != yaml_SEQUENCE_END_EVENT {
p.parseChild(n)
}
n.LineComment = string(p.event.line_comment)
n.FootComment = string(p.event.foot_comment)
p.expect(yaml_SEQUENCE_END_EVENT)
return n
}
func (p *parser) mapping() *Node {
n := p.node(MappingNode, mapTag, string(p.event.tag), "")
block := true
if p.event.mapping_style()&yaml_FLOW_MAPPING_STYLE != 0 {
block = false
n.Style |= FlowStyle
}
p.anchor(n, p.event.anchor)
p.expect(yaml_MAPPING_START_EVENT)
for p.peek() != yaml_MAPPING_END_EVENT {
k := p.parseChild(n)
if block && k.FootComment != "" {
// Must be a foot comment for the prior value when being dedented.
if len(n.Content) > 2 {
n.Content[len(n.Content)-3].FootComment = k.FootComment
k.FootComment = ""
}
}
v := p.parseChild(n)
if k.FootComment == "" && v.FootComment != "" {
k.FootComment = v.FootComment
v.FootComment = ""
}
if p.peek() == yaml_TAIL_COMMENT_EVENT {
if k.FootComment == "" {
k.FootComment = string(p.event.foot_comment)
}
p.expect(yaml_TAIL_COMMENT_EVENT)
}
}
n.LineComment = string(p.event.line_comment)
n.FootComment = string(p.event.foot_comment)
if n.Style&FlowStyle == 0 && n.FootComment != "" && len(n.Content) > 1 {
n.Content[len(n.Content)-2].FootComment = n.FootComment
n.FootComment = ""
}
p.expect(yaml_MAPPING_END_EVENT)
return n
}
// ----------------------------------------------------------------------------
// Decoder, unmarshals a node into a provided value.
type decoder struct {
doc *Node
aliases map[*Node]bool
terrors []string
stringMapType reflect.Type
generalMapType reflect.Type
knownFields bool
uniqueKeys bool
decodeCount int
aliasCount int
aliasDepth int
}
var (
nodeType = reflect.TypeOf(Node{})
durationType = reflect.TypeOf(time.Duration(0))
stringMapType = reflect.TypeOf(map[string]interface{}{})
generalMapType = reflect.TypeOf(map[interface{}]interface{}{})
ifaceType = generalMapType.Elem()
timeType = reflect.TypeOf(time.Time{})
ptrTimeType = reflect.TypeOf(&time.Time{})
)
func newDecoder() *decoder {
d := &decoder{
stringMapType: stringMapType,
generalMapType: generalMapType,
uniqueKeys: true,
}
d.aliases = make(map[*Node]bool)
return d
}
func (d *decoder) terror(n *Node, tag string, out reflect.Value) {
if n.Tag != "" {
tag = n.Tag
}
value := n.Value
if tag != seqTag && tag != mapTag {
if len(value) > 10 {
value = " `" + value[:7] + "...`"
} else {
value = " `" + value + "`"
}
}
d.terrors = append(d.terrors, fmt.Sprintf("line %d: cannot unmarshal %s%s into %s", n.Line, shortTag(tag), value, out.Type()))
}
func (d *decoder) callUnmarshaler(n *Node, u Unmarshaler) (good bool) {
err := u.UnmarshalYAML(n)
if e, ok := err.(*TypeError); ok {
d.terrors = append(d.terrors, e.Errors...)
return false
}
if err != nil {
fail(err)
}
return true
}
func (d *decoder) callObsoleteUnmarshaler(n *Node, u obsoleteUnmarshaler) (good bool) {
terrlen := len(d.terrors)
err := u.UnmarshalYAML(func(v interface{}) (err error) {
defer handleErr(&err)
d.unmarshal(n, reflect.ValueOf(v))
if len(d.terrors) > terrlen {
issues := d.terrors[terrlen:]
d.terrors = d.terrors[:terrlen]
return &TypeError{issues}
}
return nil
})
if e, ok := err.(*TypeError); ok {
d.terrors = append(d.terrors, e.Errors...)
return false
}
if err != nil {
fail(err)
}
return true
}
// d.prepare initializes and dereferences pointers and calls UnmarshalYAML
// if a value is found to implement it.
// It returns the initialized and dereferenced out value, whether
// unmarshalling was already done by UnmarshalYAML, and if so whether
// its types unmarshalled appropriately.
//
// If n holds a null value, prepare returns before doing anything.
func (d *decoder) prepare(n *Node, out reflect.Value) (newout reflect.Value, unmarshaled, good bool) {
if n.ShortTag() == nullTag || n.Kind == 0 && n.IsZero() {
return out, false, false
}
again := true
for again {
again = false
if out.Kind() == reflect.Ptr {
if out.IsNil() {
out.Set(reflect.New(out.Type().Elem()))
}
out = out.Elem()
again = true
}
if out.CanAddr() {
outi := out.Addr().Interface()
if u, ok := outi.(Unmarshaler); ok {
good = d.callUnmarshaler(n, u)
return out, true, good
}
if u, ok := outi.(obsoleteUnmarshaler); ok {
good = d.callObsoleteUnmarshaler(n, u)
return out, true, good
}
}
}
return out, false, false
}
func (d *decoder) fieldByIndex(n *Node, v reflect.Value, index []int) (field reflect.Value) {
if n.ShortTag() == nullTag {
return reflect.Value{}
}
for _, num := range index {
for {
if v.Kind() == reflect.Ptr {
if v.IsNil() {
v.Set(reflect.New(v.Type().Elem()))
}
v = v.Elem()
continue
}
break
}
v = v.Field(num)
}
return v
}
const (
// 400,000 decode operations is ~500kb of dense object declarations, or
// ~5kb of dense object declarations with 10000% alias expansion
alias_ratio_range_low = 400000
// 4,000,000 decode operations is ~5MB of dense object declarations, or
// ~4.5MB of dense object declarations with 10% alias expansion
alias_ratio_range_high = 4000000
// alias_ratio_range is the range over which we scale allowed alias ratios
alias_ratio_range = float64(alias_ratio_range_high - alias_ratio_range_low)
)
func allowedAliasRatio(decodeCount int) float64 {
switch {
case decodeCount <= alias_ratio_range_low:
// allow 99% to come from alias expansion for small-to-medium documents
return 0.99
case decodeCount >= alias_ratio_range_high:
// allow 10% to come from alias expansion for very large documents
return 0.10
default:
// scale smoothly from 99% down to 10% over the range.
// this maps to 396,000 - 400,000 allowed alias-driven decodes over the range.
// 400,000 decode operations is ~100MB of allocations in worst-case scenarios (single-item maps).
return 0.99 - 0.89*(float64(decodeCount-alias_ratio_range_low)/alias_ratio_range)
}
}
func (d *decoder) unmarshal(n *Node, out reflect.Value) (good bool) {
d.decodeCount++
if d.aliasDepth > 0 {
d.aliasCount++
}
if d.aliasCount > 100 && d.decodeCount > 1000 && float64(d.aliasCount)/float64(d.decodeCount) > allowedAliasRatio(d.decodeCount) {
failf("document contains excessive aliasing")
}
if out.Type() == nodeType {
out.Set(reflect.ValueOf(n).Elem())
return true
}
switch n.Kind {
case DocumentNode:
return d.document(n, out)
case AliasNode:
return d.alias(n, out)
}
out, unmarshaled, good := d.prepare(n, out)
if unmarshaled {
return good
}
switch n.Kind {
case ScalarNode:
good = d.scalar(n, out)
case MappingNode:
good = d.mapping(n, out)
case SequenceNode:
good = d.sequence(n, out)
case 0:
if n.IsZero() {
return d.null(out)
}
fallthrough
default:
failf("cannot decode node with unknown kind %d", n.Kind)
}
return good
}
func (d *decoder) document(n *Node, out reflect.Value) (good bool) {
if len(n.Content) == 1 {
d.doc = n
d.unmarshal(n.Content[0], out)
return true
}
return false
}
func (d *decoder) alias(n *Node, out reflect.Value) (good bool) {
if d.aliases[n] {
// TODO this could actually be allowed in some circumstances.
failf("anchor '%s' value contains itself", n.Value)
}
d.aliases[n] = true
d.aliasDepth++
good = d.unmarshal(n.Alias, out)
d.aliasDepth--
delete(d.aliases, n)
return good
}
var zeroValue reflect.Value
func resetMap(out reflect.Value) {
for _, k := range out.MapKeys() {
out.SetMapIndex(k, zeroValue)
}
}
func (d *decoder) null(out reflect.Value) bool {
if out.CanAddr() {
switch out.Kind() {
case reflect.Interface, reflect.Ptr, reflect.Map, reflect.Slice:
out.Set(reflect.Zero(out.Type()))
return true
}
}
return false
}
func (d *decoder) scalar(n *Node, out reflect.Value) bool {
var tag string
var resolved interface{}
if n.indicatedString() {
tag = strTag
resolved = n.Value
} else {
tag, resolved = resolve(n.Tag, n.Value)
if tag == binaryTag {
data, err := base64.StdEncoding.DecodeString(resolved.(string))
if err != nil {
failf("!!binary value contains invalid base64 data")
}
resolved = string(data)
}
}
if resolved == nil {
return d.null(out)
}
if resolvedv := reflect.ValueOf(resolved); out.Type() == resolvedv.Type() {
// We've resolved to exactly the type we want, so use that.
out.Set(resolvedv)
return true
}
// Perhaps we can use the value as a TextUnmarshaler to
// set its value.
if out.CanAddr() {
u, ok := out.Addr().Interface().(encoding.TextUnmarshaler)
if ok {
var text []byte
if tag == binaryTag {
text = []byte(resolved.(string))
} else {
// We let any value be unmarshaled into TextUnmarshaler.
// That might be more lax than we'd like, but the
// TextUnmarshaler itself should bowl out any dubious values.
text = []byte(n.Value)
}
err := u.UnmarshalText(text)
if err != nil {
fail(err)
}
return true
}
}
switch out.Kind() {
case reflect.String:
if tag == binaryTag {
out.SetString(resolved.(string))
return true
}
out.SetString(n.Value)
return true
case reflect.Interface:
out.Set(reflect.ValueOf(resolved))
return true
case reflect.Int, reflect.Int8, reflect.Int16, reflect.Int32, reflect.Int64:
// This used to work in v2, but it's very unfriendly.
isDuration := out.Type() == durationType
switch resolved := resolved.(type) {
case int:
if !isDuration && !out.OverflowInt(int64(resolved)) {
out.SetInt(int64(resolved))
return true
}
case int64:
if !isDuration && !out.OverflowInt(resolved) {
out.SetInt(resolved)
return true
}
case uint64:
if !isDuration && resolved <= math.MaxInt64 && !out.OverflowInt(int64(resolved)) {
out.SetInt(int64(resolved))
return true
}
case float64:
if !isDuration && resolved <= math.MaxInt64 && !out.OverflowInt(int64(resolved)) {
out.SetInt(int64(resolved))
return true
}
case string:
if out.Type() == durationType {
d, err := time.ParseDuration(resolved)
if err == nil {
out.SetInt(int64(d))
return true
}
}
}
case reflect.Uint, reflect.Uint8, reflect.Uint16, reflect.Uint32, reflect.Uint64, reflect.Uintptr:
switch resolved := resolved.(type) {
case int:
if resolved >= 0 && !out.OverflowUint(uint64(resolved)) {
out.SetUint(uint64(resolved))
return true
}
case int64:
if resolved >= 0 && !out.OverflowUint(uint64(resolved)) {
out.SetUint(uint64(resolved))
return true
}
case uint64:
if !out.OverflowUint(uint64(resolved)) {
out.SetUint(uint64(resolved))
return true
}
case float64:
if resolved <= math.MaxUint64 && !out.OverflowUint(uint64(resolved)) {
out.SetUint(uint64(resolved))
return true
}
}
case reflect.Bool:
switch resolved := resolved.(type) {
case bool:
out.SetBool(resolved)
return true
case string:
// This offers some compatibility with the 1.1 spec (https://yaml.org/type/bool.html).
// It only works if explicitly attempting to unmarshal into a typed bool value.
switch resolved {
case "y", "Y", "yes", "Yes", "YES", "on", "On", "ON":
out.SetBool(true)
return true
case "n", "N", "no", "No", "NO", "off", "Off", "OFF":
out.SetBool(false)
return true
}
}
case reflect.Float32, reflect.Float64:
switch resolved := resolved.(type) {
case int:
out.SetFloat(float64(resolved))
return true
case int64:
out.SetFloat(float64(resolved))
return true
case uint64:
out.SetFloat(float64(resolved))
return true
case float64:
out.SetFloat(resolved)
return true
}
case reflect.Struct:
if resolvedv := reflect.ValueOf(resolved); out.Type() == resolvedv.Type() {
out.Set(resolvedv)
return true
}
case reflect.Ptr:
panic("yaml internal error: please report the issue")
}
d.terror(n, tag, out)
return false
}
func settableValueOf(i interface{}) reflect.Value {
v := reflect.ValueOf(i)
sv := reflect.New(v.Type()).Elem()
sv.Set(v)
return sv
}
func (d *decoder) sequence(n *Node, out reflect.Value) (good bool) {
l := len(n.Content)
var iface reflect.Value
switch out.Kind() {
case reflect.Slice:
out.Set(reflect.MakeSlice(out.Type(), l, l))
case reflect.Array:
if l != out.Len() {
failf("invalid array: want %d elements but got %d", out.Len(), l)
}
case reflect.Interface:
// No type hints. Will have to use a generic sequence.
iface = out
out = settableValueOf(make([]interface{}, l))
default:
d.terror(n, seqTag, out)
return false
}
et := out.Type().Elem()
j := 0
for i := 0; i < l; i++ {
e := reflect.New(et).Elem()
if ok := d.unmarshal(n.Content[i], e); ok {
out.Index(j).Set(e)
j++
}
}
if out.Kind() != reflect.Array {
out.Set(out.Slice(0, j))
}
if iface.IsValid() {
iface.Set(out)
}
return true
}
func (d *decoder) mapping(n *Node, out reflect.Value) (good bool) {
l := len(n.Content)
if d.uniqueKeys {
nerrs := len(d.terrors)
for i := 0; i < l; i += 2 {
ni := n.Content[i]
for j := i + 2; j < l; j += 2 {
nj := n.Content[j]
if ni.Kind == nj.Kind && ni.Value == nj.Value {
d.terrors = append(d.terrors, fmt.Sprintf("line %d: mapping key %#v already defined at line %d", nj.Line, nj.Value, ni.Line))
}
}
}
if len(d.terrors) > nerrs {
return false
}
}
switch out.Kind() {
case reflect.Struct:
return d.mappingStruct(n, out)
case reflect.Map:
// okay
case reflect.Interface:
iface := out
if isStringMap(n) {
out = reflect.MakeMap(d.stringMapType)
} else {
out = reflect.MakeMap(d.generalMapType)
}
iface.Set(out)
default:
d.terror(n, mapTag, out)
return false
}
outt := out.Type()
kt := outt.Key()
et := outt.Elem()
stringMapType := d.stringMapType
generalMapType := d.generalMapType
if outt.Elem() == ifaceType {
if outt.Key().Kind() == reflect.String {
d.stringMapType = outt
} else if outt.Key() == ifaceType {
d.generalMapType = outt
}
}
if out.IsNil() {
out.Set(reflect.MakeMap(outt))
}
for i := 0; i < l; i += 2 {
if isMerge(n.Content[i]) {
d.merge(n.Content[i+1], out)
continue
}
k := reflect.New(kt).Elem()
if d.unmarshal(n.Content[i], k) {
kkind := k.Kind()
if kkind == reflect.Interface {
kkind = k.Elem().Kind()
}
if kkind == reflect.Map || kkind == reflect.Slice {
failf("invalid map key: %#v", k.Interface())
}
e := reflect.New(et).Elem()
if d.unmarshal(n.Content[i+1], e) {
out.SetMapIndex(k, e)
}
}
}
d.stringMapType = stringMapType
d.generalMapType = generalMapType
return true
}
func isStringMap(n *Node) bool {
if n.Kind != MappingNode {
return false
}
l := len(n.Content)
for i := 0; i < l; i += 2 {
if n.Content[i].ShortTag() != strTag {
return false
}
}
return true
}
func (d *decoder) mappingStruct(n *Node, out reflect.Value) (good bool) {
sinfo, err := getStructInfo(out.Type())
if err != nil {
panic(err)
}
var inlineMap reflect.Value
var elemType reflect.Type
if sinfo.InlineMap != -1 {
inlineMap = out.Field(sinfo.InlineMap)
inlineMap.Set(reflect.New(inlineMap.Type()).Elem())
elemType = inlineMap.Type().Elem()
}
for _, index := range sinfo.InlineUnmarshalers {
field := d.fieldByIndex(n, out, index)
d.prepare(n, field)
}
var doneFields []bool
if d.uniqueKeys {
doneFields = make([]bool, len(sinfo.FieldsList))
}
name := settableValueOf("")
l := len(n.Content)
for i := 0; i < l; i += 2 {
ni := n.Content[i]
if isMerge(ni) {
d.merge(n.Content[i+1], out)
continue
}
if !d.unmarshal(ni, name) {
continue
}
if info, ok := sinfo.FieldsMap[name.String()]; ok {
if d.uniqueKeys {
if doneFields[info.Id] {
d.terrors = append(d.terrors, fmt.Sprintf("line %d: field %s already set in type %s", ni.Line, name.String(), out.Type()))
continue
}
doneFields[info.Id] = true
}
var field reflect.Value
if info.Inline == nil {
field = out.Field(info.Num)
} else {
field = d.fieldByIndex(n, out, info.Inline)
}
d.unmarshal(n.Content[i+1], field)
} else if sinfo.InlineMap != -1 {
if inlineMap.IsNil() {
inlineMap.Set(reflect.MakeMap(inlineMap.Type()))
}
value := reflect.New(elemType).Elem()
d.unmarshal(n.Content[i+1], value)
inlineMap.SetMapIndex(name, value)
} else if d.knownFields {
d.terrors = append(d.terrors, fmt.Sprintf("line %d: field %s not found in type %s", ni.Line, name.String(), out.Type()))
}
}
return true
}
func failWantMap() {
failf("map merge requires map or sequence of maps as the value")
}
func (d *decoder) merge(n *Node, out reflect.Value) {
switch n.Kind {
case MappingNode:
d.unmarshal(n, out)
case AliasNode:
if n.Alias != nil && n.Alias.Kind != MappingNode {
failWantMap()
}
d.unmarshal(n, out)
case SequenceNode:
// Step backwards as earlier nodes take precedence.
for i := len(n.Content) - 1; i >= 0; i-- {
ni := n.Content[i]
if ni.Kind == AliasNode {
if ni.Alias != nil && ni.Alias.Kind != MappingNode {
failWantMap()
}
} else if ni.Kind != MappingNode {
failWantMap()
}
d.unmarshal(ni, out)
}
default:
failWantMap()
}
}
func isMerge(n *Node) bool {
return n.Kind == ScalarNode && n.Value == "<<" && (n.Tag == "" || n.Tag == "!" || shortTag(n.Tag) == mergeTag)
}
| 0 |
rapidsai_public_repos/rvc/vendor/gopkg.in | rapidsai_public_repos/rvc/vendor/gopkg.in/yaml.v3/writerc.go | //
// Copyright (c) 2011-2019 Canonical Ltd
// Copyright (c) 2006-2010 Kirill Simonov
//
// Permission is hereby granted, free of charge, to any person obtaining a copy of
// this software and associated documentation files (the "Software"), to deal in
// the Software without restriction, including without limitation the rights to
// use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
// of the Software, and to permit persons to whom the Software is furnished to do
// so, subject to the following conditions:
//
// The above copyright notice and this permission notice shall be included in all
// copies or substantial portions of the Software.
//
// THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
// IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
// FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
// AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
// LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
// OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
// SOFTWARE.
package yaml
// Set the writer error and return false.
func yaml_emitter_set_writer_error(emitter *yaml_emitter_t, problem string) bool {
emitter.error = yaml_WRITER_ERROR
emitter.problem = problem
return false
}
// Flush the output buffer.
func yaml_emitter_flush(emitter *yaml_emitter_t) bool {
if emitter.write_handler == nil {
panic("write handler not set")
}
// Check if the buffer is empty.
if emitter.buffer_pos == 0 {
return true
}
if err := emitter.write_handler(emitter, emitter.buffer[:emitter.buffer_pos]); err != nil {
return yaml_emitter_set_writer_error(emitter, "write error: "+err.Error())
}
emitter.buffer_pos = 0
return true
}
| 0 |
rapidsai_public_repos/rvc/vendor/gopkg.in | rapidsai_public_repos/rvc/vendor/gopkg.in/yaml.v3/apic.go | //
// Copyright (c) 2011-2019 Canonical Ltd
// Copyright (c) 2006-2010 Kirill Simonov
//
// Permission is hereby granted, free of charge, to any person obtaining a copy of
// this software and associated documentation files (the "Software"), to deal in
// the Software without restriction, including without limitation the rights to
// use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
// of the Software, and to permit persons to whom the Software is furnished to do
// so, subject to the following conditions:
//
// The above copyright notice and this permission notice shall be included in all
// copies or substantial portions of the Software.
//
// THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
// IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
// FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
// AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
// LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
// OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
// SOFTWARE.
package yaml
import (
"io"
)
func yaml_insert_token(parser *yaml_parser_t, pos int, token *yaml_token_t) {
//fmt.Println("yaml_insert_token", "pos:", pos, "typ:", token.typ, "head:", parser.tokens_head, "len:", len(parser.tokens))
// Check if we can move the queue at the beginning of the buffer.
if parser.tokens_head > 0 && len(parser.tokens) == cap(parser.tokens) {
if parser.tokens_head != len(parser.tokens) {
copy(parser.tokens, parser.tokens[parser.tokens_head:])
}
parser.tokens = parser.tokens[:len(parser.tokens)-parser.tokens_head]
parser.tokens_head = 0
}
parser.tokens = append(parser.tokens, *token)
if pos < 0 {
return
}
copy(parser.tokens[parser.tokens_head+pos+1:], parser.tokens[parser.tokens_head+pos:])
parser.tokens[parser.tokens_head+pos] = *token
}
// Create a new parser object.
func yaml_parser_initialize(parser *yaml_parser_t) bool {
*parser = yaml_parser_t{
raw_buffer: make([]byte, 0, input_raw_buffer_size),
buffer: make([]byte, 0, input_buffer_size),
}
return true
}
// Destroy a parser object.
func yaml_parser_delete(parser *yaml_parser_t) {
*parser = yaml_parser_t{}
}
// String read handler.
func yaml_string_read_handler(parser *yaml_parser_t, buffer []byte) (n int, err error) {
if parser.input_pos == len(parser.input) {
return 0, io.EOF
}
n = copy(buffer, parser.input[parser.input_pos:])
parser.input_pos += n
return n, nil
}
// Reader read handler.
func yaml_reader_read_handler(parser *yaml_parser_t, buffer []byte) (n int, err error) {
return parser.input_reader.Read(buffer)
}
// Set a string input.
func yaml_parser_set_input_string(parser *yaml_parser_t, input []byte) {
if parser.read_handler != nil {
panic("must set the input source only once")
}
parser.read_handler = yaml_string_read_handler
parser.input = input
parser.input_pos = 0
}
// Set a file input.
func yaml_parser_set_input_reader(parser *yaml_parser_t, r io.Reader) {
if parser.read_handler != nil {
panic("must set the input source only once")
}
parser.read_handler = yaml_reader_read_handler
parser.input_reader = r
}
// Set the source encoding.
func yaml_parser_set_encoding(parser *yaml_parser_t, encoding yaml_encoding_t) {
if parser.encoding != yaml_ANY_ENCODING {
panic("must set the encoding only once")
}
parser.encoding = encoding
}
// Create a new emitter object.
func yaml_emitter_initialize(emitter *yaml_emitter_t) {
*emitter = yaml_emitter_t{
buffer: make([]byte, output_buffer_size),
raw_buffer: make([]byte, 0, output_raw_buffer_size),
states: make([]yaml_emitter_state_t, 0, initial_stack_size),
events: make([]yaml_event_t, 0, initial_queue_size),
best_width: -1,
}
}
// Destroy an emitter object.
func yaml_emitter_delete(emitter *yaml_emitter_t) {
*emitter = yaml_emitter_t{}
}
// String write handler.
func yaml_string_write_handler(emitter *yaml_emitter_t, buffer []byte) error {
*emitter.output_buffer = append(*emitter.output_buffer, buffer...)
return nil
}
// yaml_writer_write_handler uses emitter.output_writer to write the
// emitted text.
func yaml_writer_write_handler(emitter *yaml_emitter_t, buffer []byte) error {
_, err := emitter.output_writer.Write(buffer)
return err
}
// Set a string output.
func yaml_emitter_set_output_string(emitter *yaml_emitter_t, output_buffer *[]byte) {
if emitter.write_handler != nil {
panic("must set the output target only once")
}
emitter.write_handler = yaml_string_write_handler
emitter.output_buffer = output_buffer
}
// Set a file output.
func yaml_emitter_set_output_writer(emitter *yaml_emitter_t, w io.Writer) {
if emitter.write_handler != nil {
panic("must set the output target only once")
}
emitter.write_handler = yaml_writer_write_handler
emitter.output_writer = w
}
// Set the output encoding.
func yaml_emitter_set_encoding(emitter *yaml_emitter_t, encoding yaml_encoding_t) {
if emitter.encoding != yaml_ANY_ENCODING {
panic("must set the output encoding only once")
}
emitter.encoding = encoding
}
// Set the canonical output style.
func yaml_emitter_set_canonical(emitter *yaml_emitter_t, canonical bool) {
emitter.canonical = canonical
}
// Set the indentation increment.
func yaml_emitter_set_indent(emitter *yaml_emitter_t, indent int) {
if indent < 2 || indent > 9 {
indent = 2
}
emitter.best_indent = indent
}
// Set the preferred line width.
func yaml_emitter_set_width(emitter *yaml_emitter_t, width int) {
if width < 0 {
width = -1
}
emitter.best_width = width
}
// Set if unescaped non-ASCII characters are allowed.
func yaml_emitter_set_unicode(emitter *yaml_emitter_t, unicode bool) {
emitter.unicode = unicode
}
// Set the preferred line break character.
func yaml_emitter_set_break(emitter *yaml_emitter_t, line_break yaml_break_t) {
emitter.line_break = line_break
}
///*
// * Destroy a token object.
// */
//
//YAML_DECLARE(void)
//yaml_token_delete(yaml_token_t *token)
//{
// assert(token); // Non-NULL token object expected.
//
// switch (token.type)
// {
// case YAML_TAG_DIRECTIVE_TOKEN:
// yaml_free(token.data.tag_directive.handle);
// yaml_free(token.data.tag_directive.prefix);
// break;
//
// case YAML_ALIAS_TOKEN:
// yaml_free(token.data.alias.value);
// break;
//
// case YAML_ANCHOR_TOKEN:
// yaml_free(token.data.anchor.value);
// break;
//
// case YAML_TAG_TOKEN:
// yaml_free(token.data.tag.handle);
// yaml_free(token.data.tag.suffix);
// break;
//
// case YAML_SCALAR_TOKEN:
// yaml_free(token.data.scalar.value);
// break;
//
// default:
// break;
// }
//
// memset(token, 0, sizeof(yaml_token_t));
//}
//
///*
// * Check if a string is a valid UTF-8 sequence.
// *
// * Check 'reader.c' for more details on UTF-8 encoding.
// */
//
//static int
//yaml_check_utf8(yaml_char_t *start, size_t length)
//{
// yaml_char_t *end = start+length;
// yaml_char_t *pointer = start;
//
// while (pointer < end) {
// unsigned char octet;
// unsigned int width;
// unsigned int value;
// size_t k;
//
// octet = pointer[0];
// width = (octet & 0x80) == 0x00 ? 1 :
// (octet & 0xE0) == 0xC0 ? 2 :
// (octet & 0xF0) == 0xE0 ? 3 :
// (octet & 0xF8) == 0xF0 ? 4 : 0;
// value = (octet & 0x80) == 0x00 ? octet & 0x7F :
// (octet & 0xE0) == 0xC0 ? octet & 0x1F :
// (octet & 0xF0) == 0xE0 ? octet & 0x0F :
// (octet & 0xF8) == 0xF0 ? octet & 0x07 : 0;
// if (!width) return 0;
// if (pointer+width > end) return 0;
// for (k = 1; k < width; k ++) {
// octet = pointer[k];
// if ((octet & 0xC0) != 0x80) return 0;
// value = (value << 6) + (octet & 0x3F);
// }
// if (!((width == 1) ||
// (width == 2 && value >= 0x80) ||
// (width == 3 && value >= 0x800) ||
// (width == 4 && value >= 0x10000))) return 0;
//
// pointer += width;
// }
//
// return 1;
//}
//
// Create STREAM-START.
func yaml_stream_start_event_initialize(event *yaml_event_t, encoding yaml_encoding_t) {
*event = yaml_event_t{
typ: yaml_STREAM_START_EVENT,
encoding: encoding,
}
}
// Create STREAM-END.
func yaml_stream_end_event_initialize(event *yaml_event_t) {
*event = yaml_event_t{
typ: yaml_STREAM_END_EVENT,
}
}
// Create DOCUMENT-START.
func yaml_document_start_event_initialize(
event *yaml_event_t,
version_directive *yaml_version_directive_t,
tag_directives []yaml_tag_directive_t,
implicit bool,
) {
*event = yaml_event_t{
typ: yaml_DOCUMENT_START_EVENT,
version_directive: version_directive,
tag_directives: tag_directives,
implicit: implicit,
}
}
// Create DOCUMENT-END.
func yaml_document_end_event_initialize(event *yaml_event_t, implicit bool) {
*event = yaml_event_t{
typ: yaml_DOCUMENT_END_EVENT,
implicit: implicit,
}
}
// Create ALIAS.
func yaml_alias_event_initialize(event *yaml_event_t, anchor []byte) bool {
*event = yaml_event_t{
typ: yaml_ALIAS_EVENT,
anchor: anchor,
}
return true
}
// Create SCALAR.
func yaml_scalar_event_initialize(event *yaml_event_t, anchor, tag, value []byte, plain_implicit, quoted_implicit bool, style yaml_scalar_style_t) bool {
*event = yaml_event_t{
typ: yaml_SCALAR_EVENT,
anchor: anchor,
tag: tag,
value: value,
implicit: plain_implicit,
quoted_implicit: quoted_implicit,
style: yaml_style_t(style),
}
return true
}
// Create SEQUENCE-START.
func yaml_sequence_start_event_initialize(event *yaml_event_t, anchor, tag []byte, implicit bool, style yaml_sequence_style_t) bool {
*event = yaml_event_t{
typ: yaml_SEQUENCE_START_EVENT,
anchor: anchor,
tag: tag,
implicit: implicit,
style: yaml_style_t(style),
}
return true
}
// Create SEQUENCE-END.
func yaml_sequence_end_event_initialize(event *yaml_event_t) bool {
*event = yaml_event_t{
typ: yaml_SEQUENCE_END_EVENT,
}
return true
}
// Create MAPPING-START.
func yaml_mapping_start_event_initialize(event *yaml_event_t, anchor, tag []byte, implicit bool, style yaml_mapping_style_t) {
*event = yaml_event_t{
typ: yaml_MAPPING_START_EVENT,
anchor: anchor,
tag: tag,
implicit: implicit,
style: yaml_style_t(style),
}
}
// Create MAPPING-END.
func yaml_mapping_end_event_initialize(event *yaml_event_t) {
*event = yaml_event_t{
typ: yaml_MAPPING_END_EVENT,
}
}
// Destroy an event object.
func yaml_event_delete(event *yaml_event_t) {
*event = yaml_event_t{}
}
///*
// * Create a document object.
// */
//
//YAML_DECLARE(int)
//yaml_document_initialize(document *yaml_document_t,
// version_directive *yaml_version_directive_t,
// tag_directives_start *yaml_tag_directive_t,
// tag_directives_end *yaml_tag_directive_t,
// start_implicit int, end_implicit int)
//{
// struct {
// error yaml_error_type_t
// } context
// struct {
// start *yaml_node_t
// end *yaml_node_t
// top *yaml_node_t
// } nodes = { NULL, NULL, NULL }
// version_directive_copy *yaml_version_directive_t = NULL
// struct {
// start *yaml_tag_directive_t
// end *yaml_tag_directive_t
// top *yaml_tag_directive_t
// } tag_directives_copy = { NULL, NULL, NULL }
// value yaml_tag_directive_t = { NULL, NULL }
// mark yaml_mark_t = { 0, 0, 0 }
//
// assert(document) // Non-NULL document object is expected.
// assert((tag_directives_start && tag_directives_end) ||
// (tag_directives_start == tag_directives_end))
// // Valid tag directives are expected.
//
// if (!STACK_INIT(&context, nodes, INITIAL_STACK_SIZE)) goto error
//
// if (version_directive) {
// version_directive_copy = yaml_malloc(sizeof(yaml_version_directive_t))
// if (!version_directive_copy) goto error
// version_directive_copy.major = version_directive.major
// version_directive_copy.minor = version_directive.minor
// }
//
// if (tag_directives_start != tag_directives_end) {
// tag_directive *yaml_tag_directive_t
// if (!STACK_INIT(&context, tag_directives_copy, INITIAL_STACK_SIZE))
// goto error
// for (tag_directive = tag_directives_start
// tag_directive != tag_directives_end; tag_directive ++) {
// assert(tag_directive.handle)
// assert(tag_directive.prefix)
// if (!yaml_check_utf8(tag_directive.handle,
// strlen((char *)tag_directive.handle)))
// goto error
// if (!yaml_check_utf8(tag_directive.prefix,
// strlen((char *)tag_directive.prefix)))
// goto error
// value.handle = yaml_strdup(tag_directive.handle)
// value.prefix = yaml_strdup(tag_directive.prefix)
// if (!value.handle || !value.prefix) goto error
// if (!PUSH(&context, tag_directives_copy, value))
// goto error
// value.handle = NULL
// value.prefix = NULL
// }
// }
//
// DOCUMENT_INIT(*document, nodes.start, nodes.end, version_directive_copy,
// tag_directives_copy.start, tag_directives_copy.top,
// start_implicit, end_implicit, mark, mark)
//
// return 1
//
//error:
// STACK_DEL(&context, nodes)
// yaml_free(version_directive_copy)
// while (!STACK_EMPTY(&context, tag_directives_copy)) {
// value yaml_tag_directive_t = POP(&context, tag_directives_copy)
// yaml_free(value.handle)
// yaml_free(value.prefix)
// }
// STACK_DEL(&context, tag_directives_copy)
// yaml_free(value.handle)
// yaml_free(value.prefix)
//
// return 0
//}
//
///*
// * Destroy a document object.
// */
//
//YAML_DECLARE(void)
//yaml_document_delete(document *yaml_document_t)
//{
// struct {
// error yaml_error_type_t
// } context
// tag_directive *yaml_tag_directive_t
//
// context.error = YAML_NO_ERROR // Eliminate a compiler warning.
//
// assert(document) // Non-NULL document object is expected.
//
// while (!STACK_EMPTY(&context, document.nodes)) {
// node yaml_node_t = POP(&context, document.nodes)
// yaml_free(node.tag)
// switch (node.type) {
// case YAML_SCALAR_NODE:
// yaml_free(node.data.scalar.value)
// break
// case YAML_SEQUENCE_NODE:
// STACK_DEL(&context, node.data.sequence.items)
// break
// case YAML_MAPPING_NODE:
// STACK_DEL(&context, node.data.mapping.pairs)
// break
// default:
// assert(0) // Should not happen.
// }
// }
// STACK_DEL(&context, document.nodes)
//
// yaml_free(document.version_directive)
// for (tag_directive = document.tag_directives.start
// tag_directive != document.tag_directives.end
// tag_directive++) {
// yaml_free(tag_directive.handle)
// yaml_free(tag_directive.prefix)
// }
// yaml_free(document.tag_directives.start)
//
// memset(document, 0, sizeof(yaml_document_t))
//}
//
///**
// * Get a document node.
// */
//
//YAML_DECLARE(yaml_node_t *)
//yaml_document_get_node(document *yaml_document_t, index int)
//{
// assert(document) // Non-NULL document object is expected.
//
// if (index > 0 && document.nodes.start + index <= document.nodes.top) {
// return document.nodes.start + index - 1
// }
// return NULL
//}
//
///**
// * Get the root object.
// */
//
//YAML_DECLARE(yaml_node_t *)
//yaml_document_get_root_node(document *yaml_document_t)
//{
// assert(document) // Non-NULL document object is expected.
//
// if (document.nodes.top != document.nodes.start) {
// return document.nodes.start
// }
// return NULL
//}
//
///*
// * Add a scalar node to a document.
// */
//
//YAML_DECLARE(int)
//yaml_document_add_scalar(document *yaml_document_t,
// tag *yaml_char_t, value *yaml_char_t, length int,
// style yaml_scalar_style_t)
//{
// struct {
// error yaml_error_type_t
// } context
// mark yaml_mark_t = { 0, 0, 0 }
// tag_copy *yaml_char_t = NULL
// value_copy *yaml_char_t = NULL
// node yaml_node_t
//
// assert(document) // Non-NULL document object is expected.
// assert(value) // Non-NULL value is expected.
//
// if (!tag) {
// tag = (yaml_char_t *)YAML_DEFAULT_SCALAR_TAG
// }
//
// if (!yaml_check_utf8(tag, strlen((char *)tag))) goto error
// tag_copy = yaml_strdup(tag)
// if (!tag_copy) goto error
//
// if (length < 0) {
// length = strlen((char *)value)
// }
//
// if (!yaml_check_utf8(value, length)) goto error
// value_copy = yaml_malloc(length+1)
// if (!value_copy) goto error
// memcpy(value_copy, value, length)
// value_copy[length] = '\0'
//
// SCALAR_NODE_INIT(node, tag_copy, value_copy, length, style, mark, mark)
// if (!PUSH(&context, document.nodes, node)) goto error
//
// return document.nodes.top - document.nodes.start
//
//error:
// yaml_free(tag_copy)
// yaml_free(value_copy)
//
// return 0
//}
//
///*
// * Add a sequence node to a document.
// */
//
//YAML_DECLARE(int)
//yaml_document_add_sequence(document *yaml_document_t,
// tag *yaml_char_t, style yaml_sequence_style_t)
//{
// struct {
// error yaml_error_type_t
// } context
// mark yaml_mark_t = { 0, 0, 0 }
// tag_copy *yaml_char_t = NULL
// struct {
// start *yaml_node_item_t
// end *yaml_node_item_t
// top *yaml_node_item_t
// } items = { NULL, NULL, NULL }
// node yaml_node_t
//
// assert(document) // Non-NULL document object is expected.
//
// if (!tag) {
// tag = (yaml_char_t *)YAML_DEFAULT_SEQUENCE_TAG
// }
//
// if (!yaml_check_utf8(tag, strlen((char *)tag))) goto error
// tag_copy = yaml_strdup(tag)
// if (!tag_copy) goto error
//
// if (!STACK_INIT(&context, items, INITIAL_STACK_SIZE)) goto error
//
// SEQUENCE_NODE_INIT(node, tag_copy, items.start, items.end,
// style, mark, mark)
// if (!PUSH(&context, document.nodes, node)) goto error
//
// return document.nodes.top - document.nodes.start
//
//error:
// STACK_DEL(&context, items)
// yaml_free(tag_copy)
//
// return 0
//}
//
///*
// * Add a mapping node to a document.
// */
//
//YAML_DECLARE(int)
//yaml_document_add_mapping(document *yaml_document_t,
// tag *yaml_char_t, style yaml_mapping_style_t)
//{
// struct {
// error yaml_error_type_t
// } context
// mark yaml_mark_t = { 0, 0, 0 }
// tag_copy *yaml_char_t = NULL
// struct {
// start *yaml_node_pair_t
// end *yaml_node_pair_t
// top *yaml_node_pair_t
// } pairs = { NULL, NULL, NULL }
// node yaml_node_t
//
// assert(document) // Non-NULL document object is expected.
//
// if (!tag) {
// tag = (yaml_char_t *)YAML_DEFAULT_MAPPING_TAG
// }
//
// if (!yaml_check_utf8(tag, strlen((char *)tag))) goto error
// tag_copy = yaml_strdup(tag)
// if (!tag_copy) goto error
//
// if (!STACK_INIT(&context, pairs, INITIAL_STACK_SIZE)) goto error
//
// MAPPING_NODE_INIT(node, tag_copy, pairs.start, pairs.end,
// style, mark, mark)
// if (!PUSH(&context, document.nodes, node)) goto error
//
// return document.nodes.top - document.nodes.start
//
//error:
// STACK_DEL(&context, pairs)
// yaml_free(tag_copy)
//
// return 0
//}
//
///*
// * Append an item to a sequence node.
// */
//
//YAML_DECLARE(int)
//yaml_document_append_sequence_item(document *yaml_document_t,
// sequence int, item int)
//{
// struct {
// error yaml_error_type_t
// } context
//
// assert(document) // Non-NULL document is required.
// assert(sequence > 0
// && document.nodes.start + sequence <= document.nodes.top)
// // Valid sequence id is required.
// assert(document.nodes.start[sequence-1].type == YAML_SEQUENCE_NODE)
// // A sequence node is required.
// assert(item > 0 && document.nodes.start + item <= document.nodes.top)
// // Valid item id is required.
//
// if (!PUSH(&context,
// document.nodes.start[sequence-1].data.sequence.items, item))
// return 0
//
// return 1
//}
//
///*
// * Append a pair of a key and a value to a mapping node.
// */
//
//YAML_DECLARE(int)
//yaml_document_append_mapping_pair(document *yaml_document_t,
// mapping int, key int, value int)
//{
// struct {
// error yaml_error_type_t
// } context
//
// pair yaml_node_pair_t
//
// assert(document) // Non-NULL document is required.
// assert(mapping > 0
// && document.nodes.start + mapping <= document.nodes.top)
// // Valid mapping id is required.
// assert(document.nodes.start[mapping-1].type == YAML_MAPPING_NODE)
// // A mapping node is required.
// assert(key > 0 && document.nodes.start + key <= document.nodes.top)
// // Valid key id is required.
// assert(value > 0 && document.nodes.start + value <= document.nodes.top)
// // Valid value id is required.
//
// pair.key = key
// pair.value = value
//
// if (!PUSH(&context,
// document.nodes.start[mapping-1].data.mapping.pairs, pair))
// return 0
//
// return 1
//}
//
//
| 0 |
rapidsai_public_repos/rvc/vendor/gopkg.in | rapidsai_public_repos/rvc/vendor/gopkg.in/yaml.v3/yamlprivateh.go | //
// Copyright (c) 2011-2019 Canonical Ltd
// Copyright (c) 2006-2010 Kirill Simonov
//
// Permission is hereby granted, free of charge, to any person obtaining a copy of
// this software and associated documentation files (the "Software"), to deal in
// the Software without restriction, including without limitation the rights to
// use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
// of the Software, and to permit persons to whom the Software is furnished to do
// so, subject to the following conditions:
//
// The above copyright notice and this permission notice shall be included in all
// copies or substantial portions of the Software.
//
// THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
// IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
// FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
// AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
// LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
// OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
// SOFTWARE.
package yaml
const (
// The size of the input raw buffer.
input_raw_buffer_size = 512
// The size of the input buffer.
// It should be possible to decode the whole raw buffer.
input_buffer_size = input_raw_buffer_size * 3
// The size of the output buffer.
output_buffer_size = 128
// The size of the output raw buffer.
// It should be possible to encode the whole output buffer.
output_raw_buffer_size = (output_buffer_size*2 + 2)
// The size of other stacks and queues.
initial_stack_size = 16
initial_queue_size = 16
initial_string_size = 16
)
// Check if the character at the specified position is an alphabetical
// character, a digit, '_', or '-'.
func is_alpha(b []byte, i int) bool {
return b[i] >= '0' && b[i] <= '9' || b[i] >= 'A' && b[i] <= 'Z' || b[i] >= 'a' && b[i] <= 'z' || b[i] == '_' || b[i] == '-'
}
// Check if the character at the specified position is a digit.
func is_digit(b []byte, i int) bool {
return b[i] >= '0' && b[i] <= '9'
}
// Get the value of a digit.
func as_digit(b []byte, i int) int {
return int(b[i]) - '0'
}
// Check if the character at the specified position is a hex-digit.
func is_hex(b []byte, i int) bool {
return b[i] >= '0' && b[i] <= '9' || b[i] >= 'A' && b[i] <= 'F' || b[i] >= 'a' && b[i] <= 'f'
}
// Get the value of a hex-digit.
func as_hex(b []byte, i int) int {
bi := b[i]
if bi >= 'A' && bi <= 'F' {
return int(bi) - 'A' + 10
}
if bi >= 'a' && bi <= 'f' {
return int(bi) - 'a' + 10
}
return int(bi) - '0'
}
// Check if the character is ASCII.
func is_ascii(b []byte, i int) bool {
return b[i] <= 0x7F
}
// Check if the character at the start of the buffer can be printed unescaped.
func is_printable(b []byte, i int) bool {
return ((b[i] == 0x0A) || // . == #x0A
(b[i] >= 0x20 && b[i] <= 0x7E) || // #x20 <= . <= #x7E
(b[i] == 0xC2 && b[i+1] >= 0xA0) || // #0xA0 <= . <= #xD7FF
(b[i] > 0xC2 && b[i] < 0xED) ||
(b[i] == 0xED && b[i+1] < 0xA0) ||
(b[i] == 0xEE) ||
(b[i] == 0xEF && // #xE000 <= . <= #xFFFD
!(b[i+1] == 0xBB && b[i+2] == 0xBF) && // && . != #xFEFF
!(b[i+1] == 0xBF && (b[i+2] == 0xBE || b[i+2] == 0xBF))))
}
// Check if the character at the specified position is NUL.
func is_z(b []byte, i int) bool {
return b[i] == 0x00
}
// Check if the beginning of the buffer is a BOM.
func is_bom(b []byte, i int) bool {
return b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF
}
// Check if the character at the specified position is space.
func is_space(b []byte, i int) bool {
return b[i] == ' '
}
// Check if the character at the specified position is tab.
func is_tab(b []byte, i int) bool {
return b[i] == '\t'
}
// Check if the character at the specified position is blank (space or tab).
func is_blank(b []byte, i int) bool {
//return is_space(b, i) || is_tab(b, i)
return b[i] == ' ' || b[i] == '\t'
}
// Check if the character at the specified position is a line break.
func is_break(b []byte, i int) bool {
return (b[i] == '\r' || // CR (#xD)
b[i] == '\n' || // LF (#xA)
b[i] == 0xC2 && b[i+1] == 0x85 || // NEL (#x85)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA8 || // LS (#x2028)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA9) // PS (#x2029)
}
func is_crlf(b []byte, i int) bool {
return b[i] == '\r' && b[i+1] == '\n'
}
// Check if the character is a line break or NUL.
func is_breakz(b []byte, i int) bool {
//return is_break(b, i) || is_z(b, i)
return (
// is_break:
b[i] == '\r' || // CR (#xD)
b[i] == '\n' || // LF (#xA)
b[i] == 0xC2 && b[i+1] == 0x85 || // NEL (#x85)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA8 || // LS (#x2028)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA9 || // PS (#x2029)
// is_z:
b[i] == 0)
}
// Check if the character is a line break, space, or NUL.
func is_spacez(b []byte, i int) bool {
//return is_space(b, i) || is_breakz(b, i)
return (
// is_space:
b[i] == ' ' ||
// is_breakz:
b[i] == '\r' || // CR (#xD)
b[i] == '\n' || // LF (#xA)
b[i] == 0xC2 && b[i+1] == 0x85 || // NEL (#x85)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA8 || // LS (#x2028)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA9 || // PS (#x2029)
b[i] == 0)
}
// Check if the character is a line break, space, tab, or NUL.
func is_blankz(b []byte, i int) bool {
//return is_blank(b, i) || is_breakz(b, i)
return (
// is_blank:
b[i] == ' ' || b[i] == '\t' ||
// is_breakz:
b[i] == '\r' || // CR (#xD)
b[i] == '\n' || // LF (#xA)
b[i] == 0xC2 && b[i+1] == 0x85 || // NEL (#x85)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA8 || // LS (#x2028)
b[i] == 0xE2 && b[i+1] == 0x80 && b[i+2] == 0xA9 || // PS (#x2029)
b[i] == 0)
}
// Determine the width of the character.
func width(b byte) int {
// Don't replace these by a switch without first
// confirming that it is being inlined.
if b&0x80 == 0x00 {
return 1
}
if b&0xE0 == 0xC0 {
return 2
}
if b&0xF0 == 0xE0 {
return 3
}
if b&0xF8 == 0xF0 {
return 4
}
return 0
}
| 0 |
rapidsai_public_repos/rvc/vendor/gopkg.in | rapidsai_public_repos/rvc/vendor/gopkg.in/yaml.v3/scannerc.go | //
// Copyright (c) 2011-2019 Canonical Ltd
// Copyright (c) 2006-2010 Kirill Simonov
//
// Permission is hereby granted, free of charge, to any person obtaining a copy of
// this software and associated documentation files (the "Software"), to deal in
// the Software without restriction, including without limitation the rights to
// use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies
// of the Software, and to permit persons to whom the Software is furnished to do
// so, subject to the following conditions:
//
// The above copyright notice and this permission notice shall be included in all
// copies or substantial portions of the Software.
//
// THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
// IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
// FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
// AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
// LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
// OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
// SOFTWARE.
package yaml
import (
"bytes"
"fmt"
)
// Introduction
// ************
//
// The following notes assume that you are familiar with the YAML specification
// (http://yaml.org/spec/1.2/spec.html). We mostly follow it, although in
// some cases we are less restrictive that it requires.
//
// The process of transforming a YAML stream into a sequence of events is
// divided on two steps: Scanning and Parsing.
//
// The Scanner transforms the input stream into a sequence of tokens, while the
// parser transform the sequence of tokens produced by the Scanner into a
// sequence of parsing events.
//
// The Scanner is rather clever and complicated. The Parser, on the contrary,
// is a straightforward implementation of a recursive-descendant parser (or,
// LL(1) parser, as it is usually called).
//
// Actually there are two issues of Scanning that might be called "clever", the
// rest is quite straightforward. The issues are "block collection start" and
// "simple keys". Both issues are explained below in details.
//
// Here the Scanning step is explained and implemented. We start with the list
// of all the tokens produced by the Scanner together with short descriptions.
//
// Now, tokens:
//
// STREAM-START(encoding) # The stream start.
// STREAM-END # The stream end.
// VERSION-DIRECTIVE(major,minor) # The '%YAML' directive.
// TAG-DIRECTIVE(handle,prefix) # The '%TAG' directive.
// DOCUMENT-START # '---'
// DOCUMENT-END # '...'
// BLOCK-SEQUENCE-START # Indentation increase denoting a block
// BLOCK-MAPPING-START # sequence or a block mapping.
// BLOCK-END # Indentation decrease.
// FLOW-SEQUENCE-START # '['
// FLOW-SEQUENCE-END # ']'
// BLOCK-SEQUENCE-START # '{'
// BLOCK-SEQUENCE-END # '}'
// BLOCK-ENTRY # '-'
// FLOW-ENTRY # ','
// KEY # '?' or nothing (simple keys).
// VALUE # ':'
// ALIAS(anchor) # '*anchor'
// ANCHOR(anchor) # '&anchor'
// TAG(handle,suffix) # '!handle!suffix'
// SCALAR(value,style) # A scalar.
//
// The following two tokens are "virtual" tokens denoting the beginning and the
// end of the stream:
//
// STREAM-START(encoding)
// STREAM-END
//
// We pass the information about the input stream encoding with the
// STREAM-START token.
//
// The next two tokens are responsible for tags:
//
// VERSION-DIRECTIVE(major,minor)
// TAG-DIRECTIVE(handle,prefix)
//
// Example:
//
// %YAML 1.1
// %TAG ! !foo
// %TAG !yaml! tag:yaml.org,2002:
// ---
//
// The correspoding sequence of tokens:
//
// STREAM-START(utf-8)
// VERSION-DIRECTIVE(1,1)
// TAG-DIRECTIVE("!","!foo")
// TAG-DIRECTIVE("!yaml","tag:yaml.org,2002:")
// DOCUMENT-START
// STREAM-END
//
// Note that the VERSION-DIRECTIVE and TAG-DIRECTIVE tokens occupy a whole
// line.
//
// The document start and end indicators are represented by:
//
// DOCUMENT-START
// DOCUMENT-END
//
// Note that if a YAML stream contains an implicit document (without '---'
// and '...' indicators), no DOCUMENT-START and DOCUMENT-END tokens will be
// produced.
//
// In the following examples, we present whole documents together with the
// produced tokens.
//
// 1. An implicit document:
//
// 'a scalar'
//
// Tokens:
//
// STREAM-START(utf-8)
// SCALAR("a scalar",single-quoted)
// STREAM-END
//
// 2. An explicit document:
//
// ---
// 'a scalar'
// ...
//
// Tokens:
//
// STREAM-START(utf-8)
// DOCUMENT-START
// SCALAR("a scalar",single-quoted)
// DOCUMENT-END
// STREAM-END
//
// 3. Several documents in a stream:
//
// 'a scalar'
// ---
// 'another scalar'
// ---
// 'yet another scalar'
//
// Tokens:
//
// STREAM-START(utf-8)
// SCALAR("a scalar",single-quoted)
// DOCUMENT-START
// SCALAR("another scalar",single-quoted)
// DOCUMENT-START
// SCALAR("yet another scalar",single-quoted)
// STREAM-END
//
// We have already introduced the SCALAR token above. The following tokens are
// used to describe aliases, anchors, tag, and scalars:
//
// ALIAS(anchor)
// ANCHOR(anchor)
// TAG(handle,suffix)
// SCALAR(value,style)
//
// The following series of examples illustrate the usage of these tokens:
//
// 1. A recursive sequence:
//
// &A [ *A ]
//
// Tokens:
//
// STREAM-START(utf-8)
// ANCHOR("A")
// FLOW-SEQUENCE-START
// ALIAS("A")
// FLOW-SEQUENCE-END
// STREAM-END
//
// 2. A tagged scalar:
//
// !!float "3.14" # A good approximation.
//
// Tokens:
//
// STREAM-START(utf-8)
// TAG("!!","float")
// SCALAR("3.14",double-quoted)
// STREAM-END
//
// 3. Various scalar styles:
//
// --- # Implicit empty plain scalars do not produce tokens.
// --- a plain scalar
// --- 'a single-quoted scalar'
// --- "a double-quoted scalar"
// --- |-
// a literal scalar
// --- >-
// a folded
// scalar
//
// Tokens:
//
// STREAM-START(utf-8)
// DOCUMENT-START
// DOCUMENT-START
// SCALAR("a plain scalar",plain)
// DOCUMENT-START
// SCALAR("a single-quoted scalar",single-quoted)
// DOCUMENT-START
// SCALAR("a double-quoted scalar",double-quoted)
// DOCUMENT-START
// SCALAR("a literal scalar",literal)
// DOCUMENT-START
// SCALAR("a folded scalar",folded)
// STREAM-END
//
// Now it's time to review collection-related tokens. We will start with
// flow collections:
//
// FLOW-SEQUENCE-START
// FLOW-SEQUENCE-END
// FLOW-MAPPING-START
// FLOW-MAPPING-END
// FLOW-ENTRY
// KEY
// VALUE
//
// The tokens FLOW-SEQUENCE-START, FLOW-SEQUENCE-END, FLOW-MAPPING-START, and
// FLOW-MAPPING-END represent the indicators '[', ']', '{', and '}'
// correspondingly. FLOW-ENTRY represent the ',' indicator. Finally the
// indicators '?' and ':', which are used for denoting mapping keys and values,
// are represented by the KEY and VALUE tokens.
//
// The following examples show flow collections:
//
// 1. A flow sequence:
//
// [item 1, item 2, item 3]
//
// Tokens:
//
// STREAM-START(utf-8)
// FLOW-SEQUENCE-START
// SCALAR("item 1",plain)
// FLOW-ENTRY
// SCALAR("item 2",plain)
// FLOW-ENTRY
// SCALAR("item 3",plain)
// FLOW-SEQUENCE-END
// STREAM-END
//
// 2. A flow mapping:
//
// {
// a simple key: a value, # Note that the KEY token is produced.
// ? a complex key: another value,
// }
//
// Tokens:
//
// STREAM-START(utf-8)
// FLOW-MAPPING-START
// KEY
// SCALAR("a simple key",plain)
// VALUE
// SCALAR("a value",plain)
// FLOW-ENTRY
// KEY
// SCALAR("a complex key",plain)
// VALUE
// SCALAR("another value",plain)
// FLOW-ENTRY
// FLOW-MAPPING-END
// STREAM-END
//
// A simple key is a key which is not denoted by the '?' indicator. Note that
// the Scanner still produce the KEY token whenever it encounters a simple key.
//
// For scanning block collections, the following tokens are used (note that we
// repeat KEY and VALUE here):
//
// BLOCK-SEQUENCE-START
// BLOCK-MAPPING-START
// BLOCK-END
// BLOCK-ENTRY
// KEY
// VALUE
//
// The tokens BLOCK-SEQUENCE-START and BLOCK-MAPPING-START denote indentation
// increase that precedes a block collection (cf. the INDENT token in Python).
// The token BLOCK-END denote indentation decrease that ends a block collection
// (cf. the DEDENT token in Python). However YAML has some syntax pecularities
// that makes detections of these tokens more complex.
//
// The tokens BLOCK-ENTRY, KEY, and VALUE are used to represent the indicators
// '-', '?', and ':' correspondingly.
//
// The following examples show how the tokens BLOCK-SEQUENCE-START,
// BLOCK-MAPPING-START, and BLOCK-END are emitted by the Scanner:
//
// 1. Block sequences:
//
// - item 1
// - item 2
// -
// - item 3.1
// - item 3.2
// -
// key 1: value 1
// key 2: value 2
//
// Tokens:
//
// STREAM-START(utf-8)
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// SCALAR("item 1",plain)
// BLOCK-ENTRY
// SCALAR("item 2",plain)
// BLOCK-ENTRY
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// SCALAR("item 3.1",plain)
// BLOCK-ENTRY
// SCALAR("item 3.2",plain)
// BLOCK-END
// BLOCK-ENTRY
// BLOCK-MAPPING-START
// KEY
// SCALAR("key 1",plain)
// VALUE
// SCALAR("value 1",plain)
// KEY
// SCALAR("key 2",plain)
// VALUE
// SCALAR("value 2",plain)
// BLOCK-END
// BLOCK-END
// STREAM-END
//
// 2. Block mappings:
//
// a simple key: a value # The KEY token is produced here.
// ? a complex key
// : another value
// a mapping:
// key 1: value 1
// key 2: value 2
// a sequence:
// - item 1
// - item 2
//
// Tokens:
//
// STREAM-START(utf-8)
// BLOCK-MAPPING-START
// KEY
// SCALAR("a simple key",plain)
// VALUE
// SCALAR("a value",plain)
// KEY
// SCALAR("a complex key",plain)
// VALUE
// SCALAR("another value",plain)
// KEY
// SCALAR("a mapping",plain)
// BLOCK-MAPPING-START
// KEY
// SCALAR("key 1",plain)
// VALUE
// SCALAR("value 1",plain)
// KEY
// SCALAR("key 2",plain)
// VALUE
// SCALAR("value 2",plain)
// BLOCK-END
// KEY
// SCALAR("a sequence",plain)
// VALUE
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// SCALAR("item 1",plain)
// BLOCK-ENTRY
// SCALAR("item 2",plain)
// BLOCK-END
// BLOCK-END
// STREAM-END
//
// YAML does not always require to start a new block collection from a new
// line. If the current line contains only '-', '?', and ':' indicators, a new
// block collection may start at the current line. The following examples
// illustrate this case:
//
// 1. Collections in a sequence:
//
// - - item 1
// - item 2
// - key 1: value 1
// key 2: value 2
// - ? complex key
// : complex value
//
// Tokens:
//
// STREAM-START(utf-8)
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// SCALAR("item 1",plain)
// BLOCK-ENTRY
// SCALAR("item 2",plain)
// BLOCK-END
// BLOCK-ENTRY
// BLOCK-MAPPING-START
// KEY
// SCALAR("key 1",plain)
// VALUE
// SCALAR("value 1",plain)
// KEY
// SCALAR("key 2",plain)
// VALUE
// SCALAR("value 2",plain)
// BLOCK-END
// BLOCK-ENTRY
// BLOCK-MAPPING-START
// KEY
// SCALAR("complex key")
// VALUE
// SCALAR("complex value")
// BLOCK-END
// BLOCK-END
// STREAM-END
//
// 2. Collections in a mapping:
//
// ? a sequence
// : - item 1
// - item 2
// ? a mapping
// : key 1: value 1
// key 2: value 2
//
// Tokens:
//
// STREAM-START(utf-8)
// BLOCK-MAPPING-START
// KEY
// SCALAR("a sequence",plain)
// VALUE
// BLOCK-SEQUENCE-START
// BLOCK-ENTRY
// SCALAR("item 1",plain)
// BLOCK-ENTRY
// SCALAR("item 2",plain)
// BLOCK-END
// KEY
// SCALAR("a mapping",plain)
// VALUE
// BLOCK-MAPPING-START
// KEY
// SCALAR("key 1",plain)
// VALUE
// SCALAR("value 1",plain)
// KEY
// SCALAR("key 2",plain)
// VALUE
// SCALAR("value 2",plain)
// BLOCK-END
// BLOCK-END
// STREAM-END
//
// YAML also permits non-indented sequences if they are included into a block
// mapping. In this case, the token BLOCK-SEQUENCE-START is not produced:
//
// key:
// - item 1 # BLOCK-SEQUENCE-START is NOT produced here.
// - item 2
//
// Tokens:
//
// STREAM-START(utf-8)
// BLOCK-MAPPING-START
// KEY
// SCALAR("key",plain)
// VALUE
// BLOCK-ENTRY
// SCALAR("item 1",plain)
// BLOCK-ENTRY
// SCALAR("item 2",plain)
// BLOCK-END
//
// Ensure that the buffer contains the required number of characters.
// Return true on success, false on failure (reader error or memory error).
func cache(parser *yaml_parser_t, length int) bool {
// [Go] This was inlined: !cache(A, B) -> unread < B && !update(A, B)
return parser.unread >= length || yaml_parser_update_buffer(parser, length)
}
// Advance the buffer pointer.
func skip(parser *yaml_parser_t) {
if !is_blank(parser.buffer, parser.buffer_pos) {
parser.newlines = 0
}
parser.mark.index++
parser.mark.column++
parser.unread--
parser.buffer_pos += width(parser.buffer[parser.buffer_pos])
}
func skip_line(parser *yaml_parser_t) {
if is_crlf(parser.buffer, parser.buffer_pos) {
parser.mark.index += 2
parser.mark.column = 0
parser.mark.line++
parser.unread -= 2
parser.buffer_pos += 2
parser.newlines++
} else if is_break(parser.buffer, parser.buffer_pos) {
parser.mark.index++
parser.mark.column = 0
parser.mark.line++
parser.unread--
parser.buffer_pos += width(parser.buffer[parser.buffer_pos])
parser.newlines++
}
}
// Copy a character to a string buffer and advance pointers.
func read(parser *yaml_parser_t, s []byte) []byte {
if !is_blank(parser.buffer, parser.buffer_pos) {
parser.newlines = 0
}
w := width(parser.buffer[parser.buffer_pos])
if w == 0 {
panic("invalid character sequence")
}
if len(s) == 0 {
s = make([]byte, 0, 32)
}
if w == 1 && len(s)+w <= cap(s) {
s = s[:len(s)+1]
s[len(s)-1] = parser.buffer[parser.buffer_pos]
parser.buffer_pos++
} else {
s = append(s, parser.buffer[parser.buffer_pos:parser.buffer_pos+w]...)
parser.buffer_pos += w
}
parser.mark.index++
parser.mark.column++
parser.unread--
return s
}
// Copy a line break character to a string buffer and advance pointers.
func read_line(parser *yaml_parser_t, s []byte) []byte {
buf := parser.buffer
pos := parser.buffer_pos
switch {
case buf[pos] == '\r' && buf[pos+1] == '\n':
// CR LF . LF
s = append(s, '\n')
parser.buffer_pos += 2
parser.mark.index++
parser.unread--
case buf[pos] == '\r' || buf[pos] == '\n':
// CR|LF . LF
s = append(s, '\n')
parser.buffer_pos += 1
case buf[pos] == '\xC2' && buf[pos+1] == '\x85':
// NEL . LF
s = append(s, '\n')
parser.buffer_pos += 2
case buf[pos] == '\xE2' && buf[pos+1] == '\x80' && (buf[pos+2] == '\xA8' || buf[pos+2] == '\xA9'):
// LS|PS . LS|PS
s = append(s, buf[parser.buffer_pos:pos+3]...)
parser.buffer_pos += 3
default:
return s
}
parser.mark.index++
parser.mark.column = 0
parser.mark.line++
parser.unread--
parser.newlines++
return s
}
// Get the next token.
func yaml_parser_scan(parser *yaml_parser_t, token *yaml_token_t) bool {
// Erase the token object.
*token = yaml_token_t{} // [Go] Is this necessary?
// No tokens after STREAM-END or error.
if parser.stream_end_produced || parser.error != yaml_NO_ERROR {
return true
}
// Ensure that the tokens queue contains enough tokens.
if !parser.token_available {
if !yaml_parser_fetch_more_tokens(parser) {
return false
}
}
// Fetch the next token from the queue.
*token = parser.tokens[parser.tokens_head]
parser.tokens_head++
parser.tokens_parsed++
parser.token_available = false
if token.typ == yaml_STREAM_END_TOKEN {
parser.stream_end_produced = true
}
return true
}
// Set the scanner error and return false.
func yaml_parser_set_scanner_error(parser *yaml_parser_t, context string, context_mark yaml_mark_t, problem string) bool {
parser.error = yaml_SCANNER_ERROR
parser.context = context
parser.context_mark = context_mark
parser.problem = problem
parser.problem_mark = parser.mark
return false
}
func yaml_parser_set_scanner_tag_error(parser *yaml_parser_t, directive bool, context_mark yaml_mark_t, problem string) bool {
context := "while parsing a tag"
if directive {
context = "while parsing a %TAG directive"
}
return yaml_parser_set_scanner_error(parser, context, context_mark, problem)
}
func trace(args ...interface{}) func() {
pargs := append([]interface{}{"+++"}, args...)
fmt.Println(pargs...)
pargs = append([]interface{}{"---"}, args...)
return func() { fmt.Println(pargs...) }
}
// Ensure that the tokens queue contains at least one token which can be
// returned to the Parser.
func yaml_parser_fetch_more_tokens(parser *yaml_parser_t) bool {
// While we need more tokens to fetch, do it.
for {
// [Go] The comment parsing logic requires a lookahead of two tokens
// so that foot comments may be parsed in time of associating them
// with the tokens that are parsed before them, and also for line
// comments to be transformed into head comments in some edge cases.
if parser.tokens_head < len(parser.tokens)-2 {
// If a potential simple key is at the head position, we need to fetch
// the next token to disambiguate it.
head_tok_idx, ok := parser.simple_keys_by_tok[parser.tokens_parsed]
if !ok {
break
} else if valid, ok := yaml_simple_key_is_valid(parser, &parser.simple_keys[head_tok_idx]); !ok {
return false
} else if !valid {
break
}
}
// Fetch the next token.
if !yaml_parser_fetch_next_token(parser) {
return false
}
}
parser.token_available = true
return true
}
// The dispatcher for token fetchers.
func yaml_parser_fetch_next_token(parser *yaml_parser_t) (ok bool) {
// Ensure that the buffer is initialized.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
// Check if we just started scanning. Fetch STREAM-START then.
if !parser.stream_start_produced {
return yaml_parser_fetch_stream_start(parser)
}
scan_mark := parser.mark
// Eat whitespaces and comments until we reach the next token.
if !yaml_parser_scan_to_next_token(parser) {
return false
}
// [Go] While unrolling indents, transform the head comments of prior
// indentation levels observed after scan_start into foot comments at
// the respective indexes.
// Check the indentation level against the current column.
if !yaml_parser_unroll_indent(parser, parser.mark.column, scan_mark) {
return false
}
// Ensure that the buffer contains at least 4 characters. 4 is the length
// of the longest indicators ('--- ' and '... ').
if parser.unread < 4 && !yaml_parser_update_buffer(parser, 4) {
return false
}
// Is it the end of the stream?
if is_z(parser.buffer, parser.buffer_pos) {
return yaml_parser_fetch_stream_end(parser)
}
// Is it a directive?
if parser.mark.column == 0 && parser.buffer[parser.buffer_pos] == '%' {
return yaml_parser_fetch_directive(parser)
}
buf := parser.buffer
pos := parser.buffer_pos
// Is it the document start indicator?
if parser.mark.column == 0 && buf[pos] == '-' && buf[pos+1] == '-' && buf[pos+2] == '-' && is_blankz(buf, pos+3) {
return yaml_parser_fetch_document_indicator(parser, yaml_DOCUMENT_START_TOKEN)
}
// Is it the document end indicator?
if parser.mark.column == 0 && buf[pos] == '.' && buf[pos+1] == '.' && buf[pos+2] == '.' && is_blankz(buf, pos+3) {
return yaml_parser_fetch_document_indicator(parser, yaml_DOCUMENT_END_TOKEN)
}
comment_mark := parser.mark
if len(parser.tokens) > 0 && (parser.flow_level == 0 && buf[pos] == ':' || parser.flow_level > 0 && buf[pos] == ',') {
// Associate any following comments with the prior token.
comment_mark = parser.tokens[len(parser.tokens)-1].start_mark
}
defer func() {
if !ok {
return
}
if len(parser.tokens) > 0 && parser.tokens[len(parser.tokens)-1].typ == yaml_BLOCK_ENTRY_TOKEN {
// Sequence indicators alone have no line comments. It becomes
// a head comment for whatever follows.
return
}
if !yaml_parser_scan_line_comment(parser, comment_mark) {
ok = false
return
}
}()
// Is it the flow sequence start indicator?
if buf[pos] == '[' {
return yaml_parser_fetch_flow_collection_start(parser, yaml_FLOW_SEQUENCE_START_TOKEN)
}
// Is it the flow mapping start indicator?
if parser.buffer[parser.buffer_pos] == '{' {
return yaml_parser_fetch_flow_collection_start(parser, yaml_FLOW_MAPPING_START_TOKEN)
}
// Is it the flow sequence end indicator?
if parser.buffer[parser.buffer_pos] == ']' {
return yaml_parser_fetch_flow_collection_end(parser,
yaml_FLOW_SEQUENCE_END_TOKEN)
}
// Is it the flow mapping end indicator?
if parser.buffer[parser.buffer_pos] == '}' {
return yaml_parser_fetch_flow_collection_end(parser,
yaml_FLOW_MAPPING_END_TOKEN)
}
// Is it the flow entry indicator?
if parser.buffer[parser.buffer_pos] == ',' {
return yaml_parser_fetch_flow_entry(parser)
}
// Is it the block entry indicator?
if parser.buffer[parser.buffer_pos] == '-' && is_blankz(parser.buffer, parser.buffer_pos+1) {
return yaml_parser_fetch_block_entry(parser)
}
// Is it the key indicator?
if parser.buffer[parser.buffer_pos] == '?' && (parser.flow_level > 0 || is_blankz(parser.buffer, parser.buffer_pos+1)) {
return yaml_parser_fetch_key(parser)
}
// Is it the value indicator?
if parser.buffer[parser.buffer_pos] == ':' && (parser.flow_level > 0 || is_blankz(parser.buffer, parser.buffer_pos+1)) {
return yaml_parser_fetch_value(parser)
}
// Is it an alias?
if parser.buffer[parser.buffer_pos] == '*' {
return yaml_parser_fetch_anchor(parser, yaml_ALIAS_TOKEN)
}
// Is it an anchor?
if parser.buffer[parser.buffer_pos] == '&' {
return yaml_parser_fetch_anchor(parser, yaml_ANCHOR_TOKEN)
}
// Is it a tag?
if parser.buffer[parser.buffer_pos] == '!' {
return yaml_parser_fetch_tag(parser)
}
// Is it a literal scalar?
if parser.buffer[parser.buffer_pos] == '|' && parser.flow_level == 0 {
return yaml_parser_fetch_block_scalar(parser, true)
}
// Is it a folded scalar?
if parser.buffer[parser.buffer_pos] == '>' && parser.flow_level == 0 {
return yaml_parser_fetch_block_scalar(parser, false)
}
// Is it a single-quoted scalar?
if parser.buffer[parser.buffer_pos] == '\'' {
return yaml_parser_fetch_flow_scalar(parser, true)
}
// Is it a double-quoted scalar?
if parser.buffer[parser.buffer_pos] == '"' {
return yaml_parser_fetch_flow_scalar(parser, false)
}
// Is it a plain scalar?
//
// A plain scalar may start with any non-blank characters except
//
// '-', '?', ':', ',', '[', ']', '{', '}',
// '#', '&', '*', '!', '|', '>', '\'', '\"',
// '%', '@', '`'.
//
// In the block context (and, for the '-' indicator, in the flow context
// too), it may also start with the characters
//
// '-', '?', ':'
//
// if it is followed by a non-space character.
//
// The last rule is more restrictive than the specification requires.
// [Go] TODO Make this logic more reasonable.
//switch parser.buffer[parser.buffer_pos] {
//case '-', '?', ':', ',', '?', '-', ',', ':', ']', '[', '}', '{', '&', '#', '!', '*', '>', '|', '"', '\'', '@', '%', '-', '`':
//}
if !(is_blankz(parser.buffer, parser.buffer_pos) || parser.buffer[parser.buffer_pos] == '-' ||
parser.buffer[parser.buffer_pos] == '?' || parser.buffer[parser.buffer_pos] == ':' ||
parser.buffer[parser.buffer_pos] == ',' || parser.buffer[parser.buffer_pos] == '[' ||
parser.buffer[parser.buffer_pos] == ']' || parser.buffer[parser.buffer_pos] == '{' ||
parser.buffer[parser.buffer_pos] == '}' || parser.buffer[parser.buffer_pos] == '#' ||
parser.buffer[parser.buffer_pos] == '&' || parser.buffer[parser.buffer_pos] == '*' ||
parser.buffer[parser.buffer_pos] == '!' || parser.buffer[parser.buffer_pos] == '|' ||
parser.buffer[parser.buffer_pos] == '>' || parser.buffer[parser.buffer_pos] == '\'' ||
parser.buffer[parser.buffer_pos] == '"' || parser.buffer[parser.buffer_pos] == '%' ||
parser.buffer[parser.buffer_pos] == '@' || parser.buffer[parser.buffer_pos] == '`') ||
(parser.buffer[parser.buffer_pos] == '-' && !is_blank(parser.buffer, parser.buffer_pos+1)) ||
(parser.flow_level == 0 &&
(parser.buffer[parser.buffer_pos] == '?' || parser.buffer[parser.buffer_pos] == ':') &&
!is_blankz(parser.buffer, parser.buffer_pos+1)) {
return yaml_parser_fetch_plain_scalar(parser)
}
// If we don't determine the token type so far, it is an error.
return yaml_parser_set_scanner_error(parser,
"while scanning for the next token", parser.mark,
"found character that cannot start any token")
}
func yaml_simple_key_is_valid(parser *yaml_parser_t, simple_key *yaml_simple_key_t) (valid, ok bool) {
if !simple_key.possible {
return false, true
}
// The 1.2 specification says:
//
// "If the ? indicator is omitted, parsing needs to see past the
// implicit key to recognize it as such. To limit the amount of
// lookahead required, the “:” indicator must appear at most 1024
// Unicode characters beyond the start of the key. In addition, the key
// is restricted to a single line."
//
if simple_key.mark.line < parser.mark.line || simple_key.mark.index+1024 < parser.mark.index {
// Check if the potential simple key to be removed is required.
if simple_key.required {
return false, yaml_parser_set_scanner_error(parser,
"while scanning a simple key", simple_key.mark,
"could not find expected ':'")
}
simple_key.possible = false
return false, true
}
return true, true
}
// Check if a simple key may start at the current position and add it if
// needed.
func yaml_parser_save_simple_key(parser *yaml_parser_t) bool {
// A simple key is required at the current position if the scanner is in
// the block context and the current column coincides with the indentation
// level.
required := parser.flow_level == 0 && parser.indent == parser.mark.column
//
// If the current position may start a simple key, save it.
//
if parser.simple_key_allowed {
simple_key := yaml_simple_key_t{
possible: true,
required: required,
token_number: parser.tokens_parsed + (len(parser.tokens) - parser.tokens_head),
mark: parser.mark,
}
if !yaml_parser_remove_simple_key(parser) {
return false
}
parser.simple_keys[len(parser.simple_keys)-1] = simple_key
parser.simple_keys_by_tok[simple_key.token_number] = len(parser.simple_keys) - 1
}
return true
}
// Remove a potential simple key at the current flow level.
func yaml_parser_remove_simple_key(parser *yaml_parser_t) bool {
i := len(parser.simple_keys) - 1
if parser.simple_keys[i].possible {
// If the key is required, it is an error.
if parser.simple_keys[i].required {
return yaml_parser_set_scanner_error(parser,
"while scanning a simple key", parser.simple_keys[i].mark,
"could not find expected ':'")
}
// Remove the key from the stack.
parser.simple_keys[i].possible = false
delete(parser.simple_keys_by_tok, parser.simple_keys[i].token_number)
}
return true
}
// max_flow_level limits the flow_level
const max_flow_level = 10000
// Increase the flow level and resize the simple key list if needed.
func yaml_parser_increase_flow_level(parser *yaml_parser_t) bool {
// Reset the simple key on the next level.
parser.simple_keys = append(parser.simple_keys, yaml_simple_key_t{
possible: false,
required: false,
token_number: parser.tokens_parsed + (len(parser.tokens) - parser.tokens_head),
mark: parser.mark,
})
// Increase the flow level.
parser.flow_level++
if parser.flow_level > max_flow_level {
return yaml_parser_set_scanner_error(parser,
"while increasing flow level", parser.simple_keys[len(parser.simple_keys)-1].mark,
fmt.Sprintf("exceeded max depth of %d", max_flow_level))
}
return true
}
// Decrease the flow level.
func yaml_parser_decrease_flow_level(parser *yaml_parser_t) bool {
if parser.flow_level > 0 {
parser.flow_level--
last := len(parser.simple_keys) - 1
delete(parser.simple_keys_by_tok, parser.simple_keys[last].token_number)
parser.simple_keys = parser.simple_keys[:last]
}
return true
}
// max_indents limits the indents stack size
const max_indents = 10000
// Push the current indentation level to the stack and set the new level
// the current column is greater than the indentation level. In this case,
// append or insert the specified token into the token queue.
func yaml_parser_roll_indent(parser *yaml_parser_t, column, number int, typ yaml_token_type_t, mark yaml_mark_t) bool {
// In the flow context, do nothing.
if parser.flow_level > 0 {
return true
}
if parser.indent < column {
// Push the current indentation level to the stack and set the new
// indentation level.
parser.indents = append(parser.indents, parser.indent)
parser.indent = column
if len(parser.indents) > max_indents {
return yaml_parser_set_scanner_error(parser,
"while increasing indent level", parser.simple_keys[len(parser.simple_keys)-1].mark,
fmt.Sprintf("exceeded max depth of %d", max_indents))
}
// Create a token and insert it into the queue.
token := yaml_token_t{
typ: typ,
start_mark: mark,
end_mark: mark,
}
if number > -1 {
number -= parser.tokens_parsed
}
yaml_insert_token(parser, number, &token)
}
return true
}
// Pop indentation levels from the indents stack until the current level
// becomes less or equal to the column. For each indentation level, append
// the BLOCK-END token.
func yaml_parser_unroll_indent(parser *yaml_parser_t, column int, scan_mark yaml_mark_t) bool {
// In the flow context, do nothing.
if parser.flow_level > 0 {
return true
}
block_mark := scan_mark
block_mark.index--
// Loop through the indentation levels in the stack.
for parser.indent > column {
// [Go] Reposition the end token before potential following
// foot comments of parent blocks. For that, search
// backwards for recent comments that were at the same
// indent as the block that is ending now.
stop_index := block_mark.index
for i := len(parser.comments) - 1; i >= 0; i-- {
comment := &parser.comments[i]
if comment.end_mark.index < stop_index {
// Don't go back beyond the start of the comment/whitespace scan, unless column < 0.
// If requested indent column is < 0, then the document is over and everything else
// is a foot anyway.
break
}
if comment.start_mark.column == parser.indent+1 {
// This is a good match. But maybe there's a former comment
// at that same indent level, so keep searching.
block_mark = comment.start_mark
}
// While the end of the former comment matches with
// the start of the following one, we know there's
// nothing in between and scanning is still safe.
stop_index = comment.scan_mark.index
}
// Create a token and append it to the queue.
token := yaml_token_t{
typ: yaml_BLOCK_END_TOKEN,
start_mark: block_mark,
end_mark: block_mark,
}
yaml_insert_token(parser, -1, &token)
// Pop the indentation level.
parser.indent = parser.indents[len(parser.indents)-1]
parser.indents = parser.indents[:len(parser.indents)-1]
}
return true
}
// Initialize the scanner and produce the STREAM-START token.
func yaml_parser_fetch_stream_start(parser *yaml_parser_t) bool {
// Set the initial indentation.
parser.indent = -1
// Initialize the simple key stack.
parser.simple_keys = append(parser.simple_keys, yaml_simple_key_t{})
parser.simple_keys_by_tok = make(map[int]int)
// A simple key is allowed at the beginning of the stream.
parser.simple_key_allowed = true
// We have started.
parser.stream_start_produced = true
// Create the STREAM-START token and append it to the queue.
token := yaml_token_t{
typ: yaml_STREAM_START_TOKEN,
start_mark: parser.mark,
end_mark: parser.mark,
encoding: parser.encoding,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the STREAM-END token and shut down the scanner.
func yaml_parser_fetch_stream_end(parser *yaml_parser_t) bool {
// Force new line.
if parser.mark.column != 0 {
parser.mark.column = 0
parser.mark.line++
}
// Reset the indentation level.
if !yaml_parser_unroll_indent(parser, -1, parser.mark) {
return false
}
// Reset simple keys.
if !yaml_parser_remove_simple_key(parser) {
return false
}
parser.simple_key_allowed = false
// Create the STREAM-END token and append it to the queue.
token := yaml_token_t{
typ: yaml_STREAM_END_TOKEN,
start_mark: parser.mark,
end_mark: parser.mark,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce a VERSION-DIRECTIVE or TAG-DIRECTIVE token.
func yaml_parser_fetch_directive(parser *yaml_parser_t) bool {
// Reset the indentation level.
if !yaml_parser_unroll_indent(parser, -1, parser.mark) {
return false
}
// Reset simple keys.
if !yaml_parser_remove_simple_key(parser) {
return false
}
parser.simple_key_allowed = false
// Create the YAML-DIRECTIVE or TAG-DIRECTIVE token.
token := yaml_token_t{}
if !yaml_parser_scan_directive(parser, &token) {
return false
}
// Append the token to the queue.
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the DOCUMENT-START or DOCUMENT-END token.
func yaml_parser_fetch_document_indicator(parser *yaml_parser_t, typ yaml_token_type_t) bool {
// Reset the indentation level.
if !yaml_parser_unroll_indent(parser, -1, parser.mark) {
return false
}
// Reset simple keys.
if !yaml_parser_remove_simple_key(parser) {
return false
}
parser.simple_key_allowed = false
// Consume the token.
start_mark := parser.mark
skip(parser)
skip(parser)
skip(parser)
end_mark := parser.mark
// Create the DOCUMENT-START or DOCUMENT-END token.
token := yaml_token_t{
typ: typ,
start_mark: start_mark,
end_mark: end_mark,
}
// Append the token to the queue.
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the FLOW-SEQUENCE-START or FLOW-MAPPING-START token.
func yaml_parser_fetch_flow_collection_start(parser *yaml_parser_t, typ yaml_token_type_t) bool {
// The indicators '[' and '{' may start a simple key.
if !yaml_parser_save_simple_key(parser) {
return false
}
// Increase the flow level.
if !yaml_parser_increase_flow_level(parser) {
return false
}
// A simple key may follow the indicators '[' and '{'.
parser.simple_key_allowed = true
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the FLOW-SEQUENCE-START of FLOW-MAPPING-START token.
token := yaml_token_t{
typ: typ,
start_mark: start_mark,
end_mark: end_mark,
}
// Append the token to the queue.
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the FLOW-SEQUENCE-END or FLOW-MAPPING-END token.
func yaml_parser_fetch_flow_collection_end(parser *yaml_parser_t, typ yaml_token_type_t) bool {
// Reset any potential simple key on the current flow level.
if !yaml_parser_remove_simple_key(parser) {
return false
}
// Decrease the flow level.
if !yaml_parser_decrease_flow_level(parser) {
return false
}
// No simple keys after the indicators ']' and '}'.
parser.simple_key_allowed = false
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the FLOW-SEQUENCE-END of FLOW-MAPPING-END token.
token := yaml_token_t{
typ: typ,
start_mark: start_mark,
end_mark: end_mark,
}
// Append the token to the queue.
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the FLOW-ENTRY token.
func yaml_parser_fetch_flow_entry(parser *yaml_parser_t) bool {
// Reset any potential simple keys on the current flow level.
if !yaml_parser_remove_simple_key(parser) {
return false
}
// Simple keys are allowed after ','.
parser.simple_key_allowed = true
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the FLOW-ENTRY token and append it to the queue.
token := yaml_token_t{
typ: yaml_FLOW_ENTRY_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the BLOCK-ENTRY token.
func yaml_parser_fetch_block_entry(parser *yaml_parser_t) bool {
// Check if the scanner is in the block context.
if parser.flow_level == 0 {
// Check if we are allowed to start a new entry.
if !parser.simple_key_allowed {
return yaml_parser_set_scanner_error(parser, "", parser.mark,
"block sequence entries are not allowed in this context")
}
// Add the BLOCK-SEQUENCE-START token if needed.
if !yaml_parser_roll_indent(parser, parser.mark.column, -1, yaml_BLOCK_SEQUENCE_START_TOKEN, parser.mark) {
return false
}
} else {
// It is an error for the '-' indicator to occur in the flow context,
// but we let the Parser detect and report about it because the Parser
// is able to point to the context.
}
// Reset any potential simple keys on the current flow level.
if !yaml_parser_remove_simple_key(parser) {
return false
}
// Simple keys are allowed after '-'.
parser.simple_key_allowed = true
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the BLOCK-ENTRY token and append it to the queue.
token := yaml_token_t{
typ: yaml_BLOCK_ENTRY_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the KEY token.
func yaml_parser_fetch_key(parser *yaml_parser_t) bool {
// In the block context, additional checks are required.
if parser.flow_level == 0 {
// Check if we are allowed to start a new key (not nessesary simple).
if !parser.simple_key_allowed {
return yaml_parser_set_scanner_error(parser, "", parser.mark,
"mapping keys are not allowed in this context")
}
// Add the BLOCK-MAPPING-START token if needed.
if !yaml_parser_roll_indent(parser, parser.mark.column, -1, yaml_BLOCK_MAPPING_START_TOKEN, parser.mark) {
return false
}
}
// Reset any potential simple keys on the current flow level.
if !yaml_parser_remove_simple_key(parser) {
return false
}
// Simple keys are allowed after '?' in the block context.
parser.simple_key_allowed = parser.flow_level == 0
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the KEY token and append it to the queue.
token := yaml_token_t{
typ: yaml_KEY_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the VALUE token.
func yaml_parser_fetch_value(parser *yaml_parser_t) bool {
simple_key := &parser.simple_keys[len(parser.simple_keys)-1]
// Have we found a simple key?
if valid, ok := yaml_simple_key_is_valid(parser, simple_key); !ok {
return false
} else if valid {
// Create the KEY token and insert it into the queue.
token := yaml_token_t{
typ: yaml_KEY_TOKEN,
start_mark: simple_key.mark,
end_mark: simple_key.mark,
}
yaml_insert_token(parser, simple_key.token_number-parser.tokens_parsed, &token)
// In the block context, we may need to add the BLOCK-MAPPING-START token.
if !yaml_parser_roll_indent(parser, simple_key.mark.column,
simple_key.token_number,
yaml_BLOCK_MAPPING_START_TOKEN, simple_key.mark) {
return false
}
// Remove the simple key.
simple_key.possible = false
delete(parser.simple_keys_by_tok, simple_key.token_number)
// A simple key cannot follow another simple key.
parser.simple_key_allowed = false
} else {
// The ':' indicator follows a complex key.
// In the block context, extra checks are required.
if parser.flow_level == 0 {
// Check if we are allowed to start a complex value.
if !parser.simple_key_allowed {
return yaml_parser_set_scanner_error(parser, "", parser.mark,
"mapping values are not allowed in this context")
}
// Add the BLOCK-MAPPING-START token if needed.
if !yaml_parser_roll_indent(parser, parser.mark.column, -1, yaml_BLOCK_MAPPING_START_TOKEN, parser.mark) {
return false
}
}
// Simple keys after ':' are allowed in the block context.
parser.simple_key_allowed = parser.flow_level == 0
}
// Consume the token.
start_mark := parser.mark
skip(parser)
end_mark := parser.mark
// Create the VALUE token and append it to the queue.
token := yaml_token_t{
typ: yaml_VALUE_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the ALIAS or ANCHOR token.
func yaml_parser_fetch_anchor(parser *yaml_parser_t, typ yaml_token_type_t) bool {
// An anchor or an alias could be a simple key.
if !yaml_parser_save_simple_key(parser) {
return false
}
// A simple key cannot follow an anchor or an alias.
parser.simple_key_allowed = false
// Create the ALIAS or ANCHOR token and append it to the queue.
var token yaml_token_t
if !yaml_parser_scan_anchor(parser, &token, typ) {
return false
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the TAG token.
func yaml_parser_fetch_tag(parser *yaml_parser_t) bool {
// A tag could be a simple key.
if !yaml_parser_save_simple_key(parser) {
return false
}
// A simple key cannot follow a tag.
parser.simple_key_allowed = false
// Create the TAG token and append it to the queue.
var token yaml_token_t
if !yaml_parser_scan_tag(parser, &token) {
return false
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the SCALAR(...,literal) or SCALAR(...,folded) tokens.
func yaml_parser_fetch_block_scalar(parser *yaml_parser_t, literal bool) bool {
// Remove any potential simple keys.
if !yaml_parser_remove_simple_key(parser) {
return false
}
// A simple key may follow a block scalar.
parser.simple_key_allowed = true
// Create the SCALAR token and append it to the queue.
var token yaml_token_t
if !yaml_parser_scan_block_scalar(parser, &token, literal) {
return false
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the SCALAR(...,single-quoted) or SCALAR(...,double-quoted) tokens.
func yaml_parser_fetch_flow_scalar(parser *yaml_parser_t, single bool) bool {
// A plain scalar could be a simple key.
if !yaml_parser_save_simple_key(parser) {
return false
}
// A simple key cannot follow a flow scalar.
parser.simple_key_allowed = false
// Create the SCALAR token and append it to the queue.
var token yaml_token_t
if !yaml_parser_scan_flow_scalar(parser, &token, single) {
return false
}
yaml_insert_token(parser, -1, &token)
return true
}
// Produce the SCALAR(...,plain) token.
func yaml_parser_fetch_plain_scalar(parser *yaml_parser_t) bool {
// A plain scalar could be a simple key.
if !yaml_parser_save_simple_key(parser) {
return false
}
// A simple key cannot follow a flow scalar.
parser.simple_key_allowed = false
// Create the SCALAR token and append it to the queue.
var token yaml_token_t
if !yaml_parser_scan_plain_scalar(parser, &token) {
return false
}
yaml_insert_token(parser, -1, &token)
return true
}
// Eat whitespaces and comments until the next token is found.
func yaml_parser_scan_to_next_token(parser *yaml_parser_t) bool {
scan_mark := parser.mark
// Until the next token is not found.
for {
// Allow the BOM mark to start a line.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if parser.mark.column == 0 && is_bom(parser.buffer, parser.buffer_pos) {
skip(parser)
}
// Eat whitespaces.
// Tabs are allowed:
// - in the flow context
// - in the block context, but not at the beginning of the line or
// after '-', '?', or ':' (complex value).
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for parser.buffer[parser.buffer_pos] == ' ' || ((parser.flow_level > 0 || !parser.simple_key_allowed) && parser.buffer[parser.buffer_pos] == '\t') {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Check if we just had a line comment under a sequence entry that
// looks more like a header to the following content. Similar to this:
//
// - # The comment
// - Some data
//
// If so, transform the line comment to a head comment and reposition.
if len(parser.comments) > 0 && len(parser.tokens) > 1 {
tokenA := parser.tokens[len(parser.tokens)-2]
tokenB := parser.tokens[len(parser.tokens)-1]
comment := &parser.comments[len(parser.comments)-1]
if tokenA.typ == yaml_BLOCK_SEQUENCE_START_TOKEN && tokenB.typ == yaml_BLOCK_ENTRY_TOKEN && len(comment.line) > 0 && !is_break(parser.buffer, parser.buffer_pos) {
// If it was in the prior line, reposition so it becomes a
// header of the follow up token. Otherwise, keep it in place
// so it becomes a header of the former.
comment.head = comment.line
comment.line = nil
if comment.start_mark.line == parser.mark.line-1 {
comment.token_mark = parser.mark
}
}
}
// Eat a comment until a line break.
if parser.buffer[parser.buffer_pos] == '#' {
if !yaml_parser_scan_comments(parser, scan_mark) {
return false
}
}
// If it is a line break, eat it.
if is_break(parser.buffer, parser.buffer_pos) {
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
skip_line(parser)
// In the block context, a new line may start a simple key.
if parser.flow_level == 0 {
parser.simple_key_allowed = true
}
} else {
break // We have found a token.
}
}
return true
}
// Scan a YAML-DIRECTIVE or TAG-DIRECTIVE token.
//
// Scope:
// %YAML 1.1 # a comment \n
// ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
// %TAG !yaml! tag:yaml.org,2002: \n
// ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
//
func yaml_parser_scan_directive(parser *yaml_parser_t, token *yaml_token_t) bool {
// Eat '%'.
start_mark := parser.mark
skip(parser)
// Scan the directive name.
var name []byte
if !yaml_parser_scan_directive_name(parser, start_mark, &name) {
return false
}
// Is it a YAML directive?
if bytes.Equal(name, []byte("YAML")) {
// Scan the VERSION directive value.
var major, minor int8
if !yaml_parser_scan_version_directive_value(parser, start_mark, &major, &minor) {
return false
}
end_mark := parser.mark
// Create a VERSION-DIRECTIVE token.
*token = yaml_token_t{
typ: yaml_VERSION_DIRECTIVE_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
major: major,
minor: minor,
}
// Is it a TAG directive?
} else if bytes.Equal(name, []byte("TAG")) {
// Scan the TAG directive value.
var handle, prefix []byte
if !yaml_parser_scan_tag_directive_value(parser, start_mark, &handle, &prefix) {
return false
}
end_mark := parser.mark
// Create a TAG-DIRECTIVE token.
*token = yaml_token_t{
typ: yaml_TAG_DIRECTIVE_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
value: handle,
prefix: prefix,
}
// Unknown directive.
} else {
yaml_parser_set_scanner_error(parser, "while scanning a directive",
start_mark, "found unknown directive name")
return false
}
// Eat the rest of the line including any comments.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_blank(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
if parser.buffer[parser.buffer_pos] == '#' {
// [Go] Discard this inline comment for the time being.
//if !yaml_parser_scan_line_comment(parser, start_mark) {
// return false
//}
for !is_breakz(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
}
// Check if we are at the end of the line.
if !is_breakz(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a directive",
start_mark, "did not find expected comment or line break")
return false
}
// Eat a line break.
if is_break(parser.buffer, parser.buffer_pos) {
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
skip_line(parser)
}
return true
}
// Scan the directive name.
//
// Scope:
// %YAML 1.1 # a comment \n
// ^^^^
// %TAG !yaml! tag:yaml.org,2002: \n
// ^^^
//
func yaml_parser_scan_directive_name(parser *yaml_parser_t, start_mark yaml_mark_t, name *[]byte) bool {
// Consume the directive name.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
var s []byte
for is_alpha(parser.buffer, parser.buffer_pos) {
s = read(parser, s)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Check if the name is empty.
if len(s) == 0 {
yaml_parser_set_scanner_error(parser, "while scanning a directive",
start_mark, "could not find expected directive name")
return false
}
// Check for an blank character after the name.
if !is_blankz(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a directive",
start_mark, "found unexpected non-alphabetical character")
return false
}
*name = s
return true
}
// Scan the value of VERSION-DIRECTIVE.
//
// Scope:
// %YAML 1.1 # a comment \n
// ^^^^^^
func yaml_parser_scan_version_directive_value(parser *yaml_parser_t, start_mark yaml_mark_t, major, minor *int8) bool {
// Eat whitespaces.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_blank(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Consume the major version number.
if !yaml_parser_scan_version_directive_number(parser, start_mark, major) {
return false
}
// Eat '.'.
if parser.buffer[parser.buffer_pos] != '.' {
return yaml_parser_set_scanner_error(parser, "while scanning a %YAML directive",
start_mark, "did not find expected digit or '.' character")
}
skip(parser)
// Consume the minor version number.
if !yaml_parser_scan_version_directive_number(parser, start_mark, minor) {
return false
}
return true
}
const max_number_length = 2
// Scan the version number of VERSION-DIRECTIVE.
//
// Scope:
// %YAML 1.1 # a comment \n
// ^
// %YAML 1.1 # a comment \n
// ^
func yaml_parser_scan_version_directive_number(parser *yaml_parser_t, start_mark yaml_mark_t, number *int8) bool {
// Repeat while the next character is digit.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
var value, length int8
for is_digit(parser.buffer, parser.buffer_pos) {
// Check if the number is too long.
length++
if length > max_number_length {
return yaml_parser_set_scanner_error(parser, "while scanning a %YAML directive",
start_mark, "found extremely long version number")
}
value = value*10 + int8(as_digit(parser.buffer, parser.buffer_pos))
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Check if the number was present.
if length == 0 {
return yaml_parser_set_scanner_error(parser, "while scanning a %YAML directive",
start_mark, "did not find expected version number")
}
*number = value
return true
}
// Scan the value of a TAG-DIRECTIVE token.
//
// Scope:
// %TAG !yaml! tag:yaml.org,2002: \n
// ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
//
func yaml_parser_scan_tag_directive_value(parser *yaml_parser_t, start_mark yaml_mark_t, handle, prefix *[]byte) bool {
var handle_value, prefix_value []byte
// Eat whitespaces.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_blank(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Scan a handle.
if !yaml_parser_scan_tag_handle(parser, true, start_mark, &handle_value) {
return false
}
// Expect a whitespace.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if !is_blank(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a %TAG directive",
start_mark, "did not find expected whitespace")
return false
}
// Eat whitespaces.
for is_blank(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Scan a prefix.
if !yaml_parser_scan_tag_uri(parser, true, nil, start_mark, &prefix_value) {
return false
}
// Expect a whitespace or line break.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if !is_blankz(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a %TAG directive",
start_mark, "did not find expected whitespace or line break")
return false
}
*handle = handle_value
*prefix = prefix_value
return true
}
func yaml_parser_scan_anchor(parser *yaml_parser_t, token *yaml_token_t, typ yaml_token_type_t) bool {
var s []byte
// Eat the indicator character.
start_mark := parser.mark
skip(parser)
// Consume the value.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_alpha(parser.buffer, parser.buffer_pos) {
s = read(parser, s)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
end_mark := parser.mark
/*
* Check if length of the anchor is greater than 0 and it is followed by
* a whitespace character or one of the indicators:
*
* '?', ':', ',', ']', '}', '%', '@', '`'.
*/
if len(s) == 0 ||
!(is_blankz(parser.buffer, parser.buffer_pos) || parser.buffer[parser.buffer_pos] == '?' ||
parser.buffer[parser.buffer_pos] == ':' || parser.buffer[parser.buffer_pos] == ',' ||
parser.buffer[parser.buffer_pos] == ']' || parser.buffer[parser.buffer_pos] == '}' ||
parser.buffer[parser.buffer_pos] == '%' || parser.buffer[parser.buffer_pos] == '@' ||
parser.buffer[parser.buffer_pos] == '`') {
context := "while scanning an alias"
if typ == yaml_ANCHOR_TOKEN {
context = "while scanning an anchor"
}
yaml_parser_set_scanner_error(parser, context, start_mark,
"did not find expected alphabetic or numeric character")
return false
}
// Create a token.
*token = yaml_token_t{
typ: typ,
start_mark: start_mark,
end_mark: end_mark,
value: s,
}
return true
}
/*
* Scan a TAG token.
*/
func yaml_parser_scan_tag(parser *yaml_parser_t, token *yaml_token_t) bool {
var handle, suffix []byte
start_mark := parser.mark
// Check if the tag is in the canonical form.
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
if parser.buffer[parser.buffer_pos+1] == '<' {
// Keep the handle as ''
// Eat '!<'
skip(parser)
skip(parser)
// Consume the tag value.
if !yaml_parser_scan_tag_uri(parser, false, nil, start_mark, &suffix) {
return false
}
// Check for '>' and eat it.
if parser.buffer[parser.buffer_pos] != '>' {
yaml_parser_set_scanner_error(parser, "while scanning a tag",
start_mark, "did not find the expected '>'")
return false
}
skip(parser)
} else {
// The tag has either the '!suffix' or the '!handle!suffix' form.
// First, try to scan a handle.
if !yaml_parser_scan_tag_handle(parser, false, start_mark, &handle) {
return false
}
// Check if it is, indeed, handle.
if handle[0] == '!' && len(handle) > 1 && handle[len(handle)-1] == '!' {
// Scan the suffix now.
if !yaml_parser_scan_tag_uri(parser, false, nil, start_mark, &suffix) {
return false
}
} else {
// It wasn't a handle after all. Scan the rest of the tag.
if !yaml_parser_scan_tag_uri(parser, false, handle, start_mark, &suffix) {
return false
}
// Set the handle to '!'.
handle = []byte{'!'}
// A special case: the '!' tag. Set the handle to '' and the
// suffix to '!'.
if len(suffix) == 0 {
handle, suffix = suffix, handle
}
}
}
// Check the character which ends the tag.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if !is_blankz(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a tag",
start_mark, "did not find expected whitespace or line break")
return false
}
end_mark := parser.mark
// Create a token.
*token = yaml_token_t{
typ: yaml_TAG_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
value: handle,
suffix: suffix,
}
return true
}
// Scan a tag handle.
func yaml_parser_scan_tag_handle(parser *yaml_parser_t, directive bool, start_mark yaml_mark_t, handle *[]byte) bool {
// Check the initial '!' character.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if parser.buffer[parser.buffer_pos] != '!' {
yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "did not find expected '!'")
return false
}
var s []byte
// Copy the '!' character.
s = read(parser, s)
// Copy all subsequent alphabetical and numerical characters.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_alpha(parser.buffer, parser.buffer_pos) {
s = read(parser, s)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Check if the trailing character is '!' and copy it.
if parser.buffer[parser.buffer_pos] == '!' {
s = read(parser, s)
} else {
// It's either the '!' tag or not really a tag handle. If it's a %TAG
// directive, it's an error. If it's a tag token, it must be a part of URI.
if directive && string(s) != "!" {
yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "did not find expected '!'")
return false
}
}
*handle = s
return true
}
// Scan a tag.
func yaml_parser_scan_tag_uri(parser *yaml_parser_t, directive bool, head []byte, start_mark yaml_mark_t, uri *[]byte) bool {
//size_t length = head ? strlen((char *)head) : 0
var s []byte
hasTag := len(head) > 0
// Copy the head if needed.
//
// Note that we don't copy the leading '!' character.
if len(head) > 1 {
s = append(s, head[1:]...)
}
// Scan the tag.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
// The set of characters that may appear in URI is as follows:
//
// '0'-'9', 'A'-'Z', 'a'-'z', '_', '-', ';', '/', '?', ':', '@', '&',
// '=', '+', '$', ',', '.', '!', '~', '*', '\'', '(', ')', '[', ']',
// '%'.
// [Go] TODO Convert this into more reasonable logic.
for is_alpha(parser.buffer, parser.buffer_pos) || parser.buffer[parser.buffer_pos] == ';' ||
parser.buffer[parser.buffer_pos] == '/' || parser.buffer[parser.buffer_pos] == '?' ||
parser.buffer[parser.buffer_pos] == ':' || parser.buffer[parser.buffer_pos] == '@' ||
parser.buffer[parser.buffer_pos] == '&' || parser.buffer[parser.buffer_pos] == '=' ||
parser.buffer[parser.buffer_pos] == '+' || parser.buffer[parser.buffer_pos] == '$' ||
parser.buffer[parser.buffer_pos] == ',' || parser.buffer[parser.buffer_pos] == '.' ||
parser.buffer[parser.buffer_pos] == '!' || parser.buffer[parser.buffer_pos] == '~' ||
parser.buffer[parser.buffer_pos] == '*' || parser.buffer[parser.buffer_pos] == '\'' ||
parser.buffer[parser.buffer_pos] == '(' || parser.buffer[parser.buffer_pos] == ')' ||
parser.buffer[parser.buffer_pos] == '[' || parser.buffer[parser.buffer_pos] == ']' ||
parser.buffer[parser.buffer_pos] == '%' {
// Check if it is a URI-escape sequence.
if parser.buffer[parser.buffer_pos] == '%' {
if !yaml_parser_scan_uri_escapes(parser, directive, start_mark, &s) {
return false
}
} else {
s = read(parser, s)
}
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
hasTag = true
}
if !hasTag {
yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "did not find expected tag URI")
return false
}
*uri = s
return true
}
// Decode an URI-escape sequence corresponding to a single UTF-8 character.
func yaml_parser_scan_uri_escapes(parser *yaml_parser_t, directive bool, start_mark yaml_mark_t, s *[]byte) bool {
// Decode the required number of characters.
w := 1024
for w > 0 {
// Check for a URI-escaped octet.
if parser.unread < 3 && !yaml_parser_update_buffer(parser, 3) {
return false
}
if !(parser.buffer[parser.buffer_pos] == '%' &&
is_hex(parser.buffer, parser.buffer_pos+1) &&
is_hex(parser.buffer, parser.buffer_pos+2)) {
return yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "did not find URI escaped octet")
}
// Get the octet.
octet := byte((as_hex(parser.buffer, parser.buffer_pos+1) << 4) + as_hex(parser.buffer, parser.buffer_pos+2))
// If it is the leading octet, determine the length of the UTF-8 sequence.
if w == 1024 {
w = width(octet)
if w == 0 {
return yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "found an incorrect leading UTF-8 octet")
}
} else {
// Check if the trailing octet is correct.
if octet&0xC0 != 0x80 {
return yaml_parser_set_scanner_tag_error(parser, directive,
start_mark, "found an incorrect trailing UTF-8 octet")
}
}
// Copy the octet and move the pointers.
*s = append(*s, octet)
skip(parser)
skip(parser)
skip(parser)
w--
}
return true
}
// Scan a block scalar.
func yaml_parser_scan_block_scalar(parser *yaml_parser_t, token *yaml_token_t, literal bool) bool {
// Eat the indicator '|' or '>'.
start_mark := parser.mark
skip(parser)
// Scan the additional block scalar indicators.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
// Check for a chomping indicator.
var chomping, increment int
if parser.buffer[parser.buffer_pos] == '+' || parser.buffer[parser.buffer_pos] == '-' {
// Set the chomping method and eat the indicator.
if parser.buffer[parser.buffer_pos] == '+' {
chomping = +1
} else {
chomping = -1
}
skip(parser)
// Check for an indentation indicator.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if is_digit(parser.buffer, parser.buffer_pos) {
// Check that the indentation is greater than 0.
if parser.buffer[parser.buffer_pos] == '0' {
yaml_parser_set_scanner_error(parser, "while scanning a block scalar",
start_mark, "found an indentation indicator equal to 0")
return false
}
// Get the indentation level and eat the indicator.
increment = as_digit(parser.buffer, parser.buffer_pos)
skip(parser)
}
} else if is_digit(parser.buffer, parser.buffer_pos) {
// Do the same as above, but in the opposite order.
if parser.buffer[parser.buffer_pos] == '0' {
yaml_parser_set_scanner_error(parser, "while scanning a block scalar",
start_mark, "found an indentation indicator equal to 0")
return false
}
increment = as_digit(parser.buffer, parser.buffer_pos)
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if parser.buffer[parser.buffer_pos] == '+' || parser.buffer[parser.buffer_pos] == '-' {
if parser.buffer[parser.buffer_pos] == '+' {
chomping = +1
} else {
chomping = -1
}
skip(parser)
}
}
// Eat whitespaces and comments to the end of the line.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_blank(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
if parser.buffer[parser.buffer_pos] == '#' {
// TODO Test this and then re-enable it.
//if !yaml_parser_scan_line_comment(parser, start_mark) {
// return false
//}
for !is_breakz(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
}
// Check if we are at the end of the line.
if !is_breakz(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a block scalar",
start_mark, "did not find expected comment or line break")
return false
}
// Eat a line break.
if is_break(parser.buffer, parser.buffer_pos) {
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
skip_line(parser)
}
end_mark := parser.mark
// Set the indentation level if it was specified.
var indent int
if increment > 0 {
if parser.indent >= 0 {
indent = parser.indent + increment
} else {
indent = increment
}
}
// Scan the leading line breaks and determine the indentation level if needed.
var s, leading_break, trailing_breaks []byte
if !yaml_parser_scan_block_scalar_breaks(parser, &indent, &trailing_breaks, start_mark, &end_mark) {
return false
}
// Scan the block scalar content.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
var leading_blank, trailing_blank bool
for parser.mark.column == indent && !is_z(parser.buffer, parser.buffer_pos) {
// We are at the beginning of a non-empty line.
// Is it a trailing whitespace?
trailing_blank = is_blank(parser.buffer, parser.buffer_pos)
// Check if we need to fold the leading line break.
if !literal && !leading_blank && !trailing_blank && len(leading_break) > 0 && leading_break[0] == '\n' {
// Do we need to join the lines by space?
if len(trailing_breaks) == 0 {
s = append(s, ' ')
}
} else {
s = append(s, leading_break...)
}
leading_break = leading_break[:0]
// Append the remaining line breaks.
s = append(s, trailing_breaks...)
trailing_breaks = trailing_breaks[:0]
// Is it a leading whitespace?
leading_blank = is_blank(parser.buffer, parser.buffer_pos)
// Consume the current line.
for !is_breakz(parser.buffer, parser.buffer_pos) {
s = read(parser, s)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Consume the line break.
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
leading_break = read_line(parser, leading_break)
// Eat the following indentation spaces and line breaks.
if !yaml_parser_scan_block_scalar_breaks(parser, &indent, &trailing_breaks, start_mark, &end_mark) {
return false
}
}
// Chomp the tail.
if chomping != -1 {
s = append(s, leading_break...)
}
if chomping == 1 {
s = append(s, trailing_breaks...)
}
// Create a token.
*token = yaml_token_t{
typ: yaml_SCALAR_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
value: s,
style: yaml_LITERAL_SCALAR_STYLE,
}
if !literal {
token.style = yaml_FOLDED_SCALAR_STYLE
}
return true
}
// Scan indentation spaces and line breaks for a block scalar. Determine the
// indentation level if needed.
func yaml_parser_scan_block_scalar_breaks(parser *yaml_parser_t, indent *int, breaks *[]byte, start_mark yaml_mark_t, end_mark *yaml_mark_t) bool {
*end_mark = parser.mark
// Eat the indentation spaces and line breaks.
max_indent := 0
for {
// Eat the indentation spaces.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for (*indent == 0 || parser.mark.column < *indent) && is_space(parser.buffer, parser.buffer_pos) {
skip(parser)
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
if parser.mark.column > max_indent {
max_indent = parser.mark.column
}
// Check for a tab character messing the indentation.
if (*indent == 0 || parser.mark.column < *indent) && is_tab(parser.buffer, parser.buffer_pos) {
return yaml_parser_set_scanner_error(parser, "while scanning a block scalar",
start_mark, "found a tab character where an indentation space is expected")
}
// Have we found a non-empty line?
if !is_break(parser.buffer, parser.buffer_pos) {
break
}
// Consume the line break.
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
// [Go] Should really be returning breaks instead.
*breaks = read_line(parser, *breaks)
*end_mark = parser.mark
}
// Determine the indentation level if needed.
if *indent == 0 {
*indent = max_indent
if *indent < parser.indent+1 {
*indent = parser.indent + 1
}
if *indent < 1 {
*indent = 1
}
}
return true
}
// Scan a quoted scalar.
func yaml_parser_scan_flow_scalar(parser *yaml_parser_t, token *yaml_token_t, single bool) bool {
// Eat the left quote.
start_mark := parser.mark
skip(parser)
// Consume the content of the quoted scalar.
var s, leading_break, trailing_breaks, whitespaces []byte
for {
// Check that there are no document indicators at the beginning of the line.
if parser.unread < 4 && !yaml_parser_update_buffer(parser, 4) {
return false
}
if parser.mark.column == 0 &&
((parser.buffer[parser.buffer_pos+0] == '-' &&
parser.buffer[parser.buffer_pos+1] == '-' &&
parser.buffer[parser.buffer_pos+2] == '-') ||
(parser.buffer[parser.buffer_pos+0] == '.' &&
parser.buffer[parser.buffer_pos+1] == '.' &&
parser.buffer[parser.buffer_pos+2] == '.')) &&
is_blankz(parser.buffer, parser.buffer_pos+3) {
yaml_parser_set_scanner_error(parser, "while scanning a quoted scalar",
start_mark, "found unexpected document indicator")
return false
}
// Check for EOF.
if is_z(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a quoted scalar",
start_mark, "found unexpected end of stream")
return false
}
// Consume non-blank characters.
leading_blanks := false
for !is_blankz(parser.buffer, parser.buffer_pos) {
if single && parser.buffer[parser.buffer_pos] == '\'' && parser.buffer[parser.buffer_pos+1] == '\'' {
// Is is an escaped single quote.
s = append(s, '\'')
skip(parser)
skip(parser)
} else if single && parser.buffer[parser.buffer_pos] == '\'' {
// It is a right single quote.
break
} else if !single && parser.buffer[parser.buffer_pos] == '"' {
// It is a right double quote.
break
} else if !single && parser.buffer[parser.buffer_pos] == '\\' && is_break(parser.buffer, parser.buffer_pos+1) {
// It is an escaped line break.
if parser.unread < 3 && !yaml_parser_update_buffer(parser, 3) {
return false
}
skip(parser)
skip_line(parser)
leading_blanks = true
break
} else if !single && parser.buffer[parser.buffer_pos] == '\\' {
// It is an escape sequence.
code_length := 0
// Check the escape character.
switch parser.buffer[parser.buffer_pos+1] {
case '0':
s = append(s, 0)
case 'a':
s = append(s, '\x07')
case 'b':
s = append(s, '\x08')
case 't', '\t':
s = append(s, '\x09')
case 'n':
s = append(s, '\x0A')
case 'v':
s = append(s, '\x0B')
case 'f':
s = append(s, '\x0C')
case 'r':
s = append(s, '\x0D')
case 'e':
s = append(s, '\x1B')
case ' ':
s = append(s, '\x20')
case '"':
s = append(s, '"')
case '\'':
s = append(s, '\'')
case '\\':
s = append(s, '\\')
case 'N': // NEL (#x85)
s = append(s, '\xC2')
s = append(s, '\x85')
case '_': // #xA0
s = append(s, '\xC2')
s = append(s, '\xA0')
case 'L': // LS (#x2028)
s = append(s, '\xE2')
s = append(s, '\x80')
s = append(s, '\xA8')
case 'P': // PS (#x2029)
s = append(s, '\xE2')
s = append(s, '\x80')
s = append(s, '\xA9')
case 'x':
code_length = 2
case 'u':
code_length = 4
case 'U':
code_length = 8
default:
yaml_parser_set_scanner_error(parser, "while parsing a quoted scalar",
start_mark, "found unknown escape character")
return false
}
skip(parser)
skip(parser)
// Consume an arbitrary escape code.
if code_length > 0 {
var value int
// Scan the character value.
if parser.unread < code_length && !yaml_parser_update_buffer(parser, code_length) {
return false
}
for k := 0; k < code_length; k++ {
if !is_hex(parser.buffer, parser.buffer_pos+k) {
yaml_parser_set_scanner_error(parser, "while parsing a quoted scalar",
start_mark, "did not find expected hexdecimal number")
return false
}
value = (value << 4) + as_hex(parser.buffer, parser.buffer_pos+k)
}
// Check the value and write the character.
if (value >= 0xD800 && value <= 0xDFFF) || value > 0x10FFFF {
yaml_parser_set_scanner_error(parser, "while parsing a quoted scalar",
start_mark, "found invalid Unicode character escape code")
return false
}
if value <= 0x7F {
s = append(s, byte(value))
} else if value <= 0x7FF {
s = append(s, byte(0xC0+(value>>6)))
s = append(s, byte(0x80+(value&0x3F)))
} else if value <= 0xFFFF {
s = append(s, byte(0xE0+(value>>12)))
s = append(s, byte(0x80+((value>>6)&0x3F)))
s = append(s, byte(0x80+(value&0x3F)))
} else {
s = append(s, byte(0xF0+(value>>18)))
s = append(s, byte(0x80+((value>>12)&0x3F)))
s = append(s, byte(0x80+((value>>6)&0x3F)))
s = append(s, byte(0x80+(value&0x3F)))
}
// Advance the pointer.
for k := 0; k < code_length; k++ {
skip(parser)
}
}
} else {
// It is a non-escaped non-blank character.
s = read(parser, s)
}
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
}
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
// Check if we are at the end of the scalar.
if single {
if parser.buffer[parser.buffer_pos] == '\'' {
break
}
} else {
if parser.buffer[parser.buffer_pos] == '"' {
break
}
}
// Consume blank characters.
for is_blank(parser.buffer, parser.buffer_pos) || is_break(parser.buffer, parser.buffer_pos) {
if is_blank(parser.buffer, parser.buffer_pos) {
// Consume a space or a tab character.
if !leading_blanks {
whitespaces = read(parser, whitespaces)
} else {
skip(parser)
}
} else {
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
// Check if it is a first line break.
if !leading_blanks {
whitespaces = whitespaces[:0]
leading_break = read_line(parser, leading_break)
leading_blanks = true
} else {
trailing_breaks = read_line(parser, trailing_breaks)
}
}
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Join the whitespaces or fold line breaks.
if leading_blanks {
// Do we need to fold line breaks?
if len(leading_break) > 0 && leading_break[0] == '\n' {
if len(trailing_breaks) == 0 {
s = append(s, ' ')
} else {
s = append(s, trailing_breaks...)
}
} else {
s = append(s, leading_break...)
s = append(s, trailing_breaks...)
}
trailing_breaks = trailing_breaks[:0]
leading_break = leading_break[:0]
} else {
s = append(s, whitespaces...)
whitespaces = whitespaces[:0]
}
}
// Eat the right quote.
skip(parser)
end_mark := parser.mark
// Create a token.
*token = yaml_token_t{
typ: yaml_SCALAR_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
value: s,
style: yaml_SINGLE_QUOTED_SCALAR_STYLE,
}
if !single {
token.style = yaml_DOUBLE_QUOTED_SCALAR_STYLE
}
return true
}
// Scan a plain scalar.
func yaml_parser_scan_plain_scalar(parser *yaml_parser_t, token *yaml_token_t) bool {
var s, leading_break, trailing_breaks, whitespaces []byte
var leading_blanks bool
var indent = parser.indent + 1
start_mark := parser.mark
end_mark := parser.mark
// Consume the content of the plain scalar.
for {
// Check for a document indicator.
if parser.unread < 4 && !yaml_parser_update_buffer(parser, 4) {
return false
}
if parser.mark.column == 0 &&
((parser.buffer[parser.buffer_pos+0] == '-' &&
parser.buffer[parser.buffer_pos+1] == '-' &&
parser.buffer[parser.buffer_pos+2] == '-') ||
(parser.buffer[parser.buffer_pos+0] == '.' &&
parser.buffer[parser.buffer_pos+1] == '.' &&
parser.buffer[parser.buffer_pos+2] == '.')) &&
is_blankz(parser.buffer, parser.buffer_pos+3) {
break
}
// Check for a comment.
if parser.buffer[parser.buffer_pos] == '#' {
break
}
// Consume non-blank characters.
for !is_blankz(parser.buffer, parser.buffer_pos) {
// Check for indicators that may end a plain scalar.
if (parser.buffer[parser.buffer_pos] == ':' && is_blankz(parser.buffer, parser.buffer_pos+1)) ||
(parser.flow_level > 0 &&
(parser.buffer[parser.buffer_pos] == ',' ||
parser.buffer[parser.buffer_pos] == '?' || parser.buffer[parser.buffer_pos] == '[' ||
parser.buffer[parser.buffer_pos] == ']' || parser.buffer[parser.buffer_pos] == '{' ||
parser.buffer[parser.buffer_pos] == '}')) {
break
}
// Check if we need to join whitespaces and breaks.
if leading_blanks || len(whitespaces) > 0 {
if leading_blanks {
// Do we need to fold line breaks?
if leading_break[0] == '\n' {
if len(trailing_breaks) == 0 {
s = append(s, ' ')
} else {
s = append(s, trailing_breaks...)
}
} else {
s = append(s, leading_break...)
s = append(s, trailing_breaks...)
}
trailing_breaks = trailing_breaks[:0]
leading_break = leading_break[:0]
leading_blanks = false
} else {
s = append(s, whitespaces...)
whitespaces = whitespaces[:0]
}
}
// Copy the character.
s = read(parser, s)
end_mark = parser.mark
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
}
// Is it the end?
if !(is_blank(parser.buffer, parser.buffer_pos) || is_break(parser.buffer, parser.buffer_pos)) {
break
}
// Consume blank characters.
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
for is_blank(parser.buffer, parser.buffer_pos) || is_break(parser.buffer, parser.buffer_pos) {
if is_blank(parser.buffer, parser.buffer_pos) {
// Check for tab characters that abuse indentation.
if leading_blanks && parser.mark.column < indent && is_tab(parser.buffer, parser.buffer_pos) {
yaml_parser_set_scanner_error(parser, "while scanning a plain scalar",
start_mark, "found a tab character that violates indentation")
return false
}
// Consume a space or a tab character.
if !leading_blanks {
whitespaces = read(parser, whitespaces)
} else {
skip(parser)
}
} else {
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
// Check if it is a first line break.
if !leading_blanks {
whitespaces = whitespaces[:0]
leading_break = read_line(parser, leading_break)
leading_blanks = true
} else {
trailing_breaks = read_line(parser, trailing_breaks)
}
}
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
}
// Check indentation level.
if parser.flow_level == 0 && parser.mark.column < indent {
break
}
}
// Create a token.
*token = yaml_token_t{
typ: yaml_SCALAR_TOKEN,
start_mark: start_mark,
end_mark: end_mark,
value: s,
style: yaml_PLAIN_SCALAR_STYLE,
}
// Note that we change the 'simple_key_allowed' flag.
if leading_blanks {
parser.simple_key_allowed = true
}
return true
}
func yaml_parser_scan_line_comment(parser *yaml_parser_t, token_mark yaml_mark_t) bool {
if parser.newlines > 0 {
return true
}
var start_mark yaml_mark_t
var text []byte
for peek := 0; peek < 512; peek++ {
if parser.unread < peek+1 && !yaml_parser_update_buffer(parser, peek+1) {
break
}
if is_blank(parser.buffer, parser.buffer_pos+peek) {
continue
}
if parser.buffer[parser.buffer_pos+peek] == '#' {
seen := parser.mark.index+peek
for {
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if is_breakz(parser.buffer, parser.buffer_pos) {
if parser.mark.index >= seen {
break
}
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
skip_line(parser)
} else if parser.mark.index >= seen {
if len(text) == 0 {
start_mark = parser.mark
}
text = read(parser, text)
} else {
skip(parser)
}
}
}
break
}
if len(text) > 0 {
parser.comments = append(parser.comments, yaml_comment_t{
token_mark: token_mark,
start_mark: start_mark,
line: text,
})
}
return true
}
func yaml_parser_scan_comments(parser *yaml_parser_t, scan_mark yaml_mark_t) bool {
token := parser.tokens[len(parser.tokens)-1]
if token.typ == yaml_FLOW_ENTRY_TOKEN && len(parser.tokens) > 1 {
token = parser.tokens[len(parser.tokens)-2]
}
var token_mark = token.start_mark
var start_mark yaml_mark_t
var recent_empty = false
var first_empty = parser.newlines <= 1
var line = parser.mark.line
var column = parser.mark.column
var text []byte
// The foot line is the place where a comment must start to
// still be considered as a foot of the prior content.
// If there's some content in the currently parsed line, then
// the foot is the line below it.
var foot_line = -1
if scan_mark.line > 0 {
foot_line = parser.mark.line-parser.newlines+1
if parser.newlines == 0 && parser.mark.column > 1 {
foot_line++
}
}
var peek = 0
for ; peek < 512; peek++ {
if parser.unread < peek+1 && !yaml_parser_update_buffer(parser, peek+1) {
break
}
column++
if is_blank(parser.buffer, parser.buffer_pos+peek) {
continue
}
c := parser.buffer[parser.buffer_pos+peek]
if is_breakz(parser.buffer, parser.buffer_pos+peek) || parser.flow_level > 0 && (c == ']' || c == '}') {
// Got line break or terminator.
if !recent_empty {
if first_empty && (start_mark.line == foot_line || start_mark.column-1 < parser.indent) {
// This is the first empty line and there were no empty lines before,
// so this initial part of the comment is a foot of the prior token
// instead of being a head for the following one. Split it up.
if len(text) > 0 {
if start_mark.column-1 < parser.indent {
// If dedented it's unrelated to the prior token.
token_mark = start_mark
}
parser.comments = append(parser.comments, yaml_comment_t{
scan_mark: scan_mark,
token_mark: token_mark,
start_mark: start_mark,
end_mark: yaml_mark_t{parser.mark.index + peek, line, column},
foot: text,
})
scan_mark = yaml_mark_t{parser.mark.index + peek, line, column}
token_mark = scan_mark
text = nil
}
} else {
if len(text) > 0 && parser.buffer[parser.buffer_pos+peek] != 0 {
text = append(text, '\n')
}
}
}
if !is_break(parser.buffer, parser.buffer_pos+peek) {
break
}
first_empty = false
recent_empty = true
column = 0
line++
continue
}
if len(text) > 0 && column < parser.indent+1 && column != start_mark.column {
// The comment at the different indentation is a foot of the
// preceding data rather than a head of the upcoming one.
parser.comments = append(parser.comments, yaml_comment_t{
scan_mark: scan_mark,
token_mark: token_mark,
start_mark: start_mark,
end_mark: yaml_mark_t{parser.mark.index + peek, line, column},
foot: text,
})
scan_mark = yaml_mark_t{parser.mark.index + peek, line, column}
token_mark = scan_mark
text = nil
}
if parser.buffer[parser.buffer_pos+peek] != '#' {
break
}
if len(text) == 0 {
start_mark = yaml_mark_t{parser.mark.index + peek, line, column}
} else {
text = append(text, '\n')
}
recent_empty = false
// Consume until after the consumed comment line.
seen := parser.mark.index+peek
for {
if parser.unread < 1 && !yaml_parser_update_buffer(parser, 1) {
return false
}
if is_breakz(parser.buffer, parser.buffer_pos) {
if parser.mark.index >= seen {
break
}
if parser.unread < 2 && !yaml_parser_update_buffer(parser, 2) {
return false
}
skip_line(parser)
} else if parser.mark.index >= seen {
text = read(parser, text)
} else {
skip(parser)
}
}
peek = 0
column = 0
line = parser.mark.line
}
if len(text) > 0 {
parser.comments = append(parser.comments, yaml_comment_t{
scan_mark: scan_mark,
token_mark: start_mark,
start_mark: start_mark,
end_mark: yaml_mark_t{parser.mark.index + peek - 1, line, column},
head: text,
})
}
return true
}
| 0 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.