File size: 16,136 Bytes
aed2e18
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
from loguru import logger
import pandas as pd
from dask import delayed
import dask.dataframe as dd
from dask.diagnostics import ProgressBar
import os
import traceback
import numpy as np

logger.remove()
logger.add(lambda msg: print(msg, end=""), level="INFO")

def calculate_dollar_directions(df):
    try:
        logger.info("Calculando 'trade_dollar', 'price_change' e 'dollar_direction'")
        df['trade_dollar'] = df['price'] * df['qty']
        df['price_change'] = df['price'].diff().fillna(0)
        df['dollar_direction'] = df['price_change'].apply(
            lambda x: 1 if x > 0 else (-1 if x < 0 else 0)
        ).astype(int)
        logger.info("'dollar_directions' calculadas com sucesso")
        return df
    except KeyError as e:
        logger.error(f"Erro ao calcular 'dollar_directions': {e}")
        return df
    except Exception as e:
        logger.error(f"Erro inesperado ao calcular 'dollar_directions': {e}")
        return df

def calculate_dollar_imbalance(df):
    try:
        logger.info("Calculando 'trade_dollar', 'dollar_side' e 'dollar_imbalance'")
        df['trade_dollar'] = df['price'] * df['qty']
        df['dollar_side'] = df['isBuyerMaker'].map({True: -1, False: 1})
        df['dollar_imbalance'] = df['trade_dollar'] * df['dollar_side']
        logger.info("'dollar_imbalance' calculadas com sucesso")
        return df
    except KeyError as e:
        logger.error(f"Erro ao calcular 'dollar_imbalance': {e}")
        return df
    except Exception as e:
        logger.error(f"Erro inesperado ao calcular 'dollar_imbalance': {e}")
        return df

def check_column_types(df, expected_types, file):
    for column, expected in expected_types.items():
        if column not in df.columns:
            logger.error(f"A coluna '{column}' está ausente no arquivo {file}.")
            return False

        actual_dtype = df[column].dtype

        if expected == int:
            if not np.issubdtype(actual_dtype, np.integer):
                logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: int")
                return False
        elif expected == float:
            if not np.issubdtype(actual_dtype, np.floating):
                logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: float")
                return False
        elif expected == str:
            if not (np.issubdtype(actual_dtype, np.object_) or np.issubdtype(actual_dtype, np.str_)):
                logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: str")
                return False
        elif expected == bool:
            if not np.issubdtype(actual_dtype, np.bool_):
                logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: bool")
                return False
        elif expected == pd.Timestamp:
            if not np.issubdtype(actual_dtype, np.datetime64):
                logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: datetime64")
                return False
        else:
            logger.error(f"Tipo esperado não reconhecido para a coluna '{column}': {expected}")
            return False
    return True

def create_dollar_bars(df, dollar_threshold, output_path):
    if os.path.exists(output_path):
        logger.info(f"'dollar_bars' já existe. Carregando de {output_path}...")
        dollar_bars = dd.read_parquet(output_path).compute()
        logger.info("'dollar_bars' carregado com sucesso.")
    else:
        logger.info("Criando 'dollar_bars'...")
        with ProgressBar():
            # Calcular o valor em dólares de cada trade
            df = df.assign(trade_dollar=df['price'] * df['qty'])

            # Calcular o acumulado
            df = df.assign(cumulative_dollar=df['trade_dollar'].cumsum())

            # Definir o número do bar
            df = df.assign(bar_number=(df['cumulative_dollar'] // dollar_threshold).astype(int))

            # Agrupar por bar_number e realizar todas as agregações em uma única chamada
            grouped = df.groupby('bar_number').agg(
                trade_count=('trade_id', 'count'),
                price_open=('price', 'first'),
                price_high=('price', 'max'),
                price_low=('price', 'min'),
                price_close=('price', 'last'),
                qty_sum=('qty', 'sum'),
                quoteQty_sum=('quoteQty', 'sum'),
                time=('time', 'max'),
                isBuyerMaker_avg=('isBuyerMaker', 'mean'),
                isBestMatch_avg=('isBestMatch', 'mean')
            )

            # Salvar diretamente como Parquet usando Dask
            grouped.to_parquet(output_path, engine='pyarrow', compression='snappy')

        logger.info("'dollar_bars' criado e salvo com sucesso.")
        # Carregar os dados para retornar como pandas DataFrame
        dollar_bars = dd.read_parquet(output_path).compute()

    return dollar_bars

@delayed
def process_file_run_bars(file, dollar_threshold, max_records):
    try:
        df = pd.read_parquet(file)
        logger.info(f"Processando arquivo: {file}")
        logger.info(f"Colunas disponíveis: {df.columns.tolist()}")

        # Definir os tipos esperados
        expected_types = {
            'price': float,       # Assumindo que 'price' é float
            'qty': float,         # Assumindo que 'qty' é float
            'trade_id': int,      # 'trade_id' como inteiro
            'isBuyerMaker': bool,
            'isBestMatch': bool,
            'time': pd.Timestamp  # Assumindo que 'time' é datetime
        }

        # Verificar tipos de colunas
        if not check_column_types(df, expected_types, file):
            logger.error(f"Tipos de colunas inválidos no arquivo {file}. Pulando processamento.")
            return pd.DataFrame()

        # Converter 'time' para datetime, caso ainda não esteja
        if not np.issubdtype(df['time'].dtype, np.datetime64):
            logger.info(f"Convertendo coluna 'time' para datetime no arquivo {file}")
            df['time'] = pd.to_datetime(df['time'], unit='s', errors='coerce')
            if df['time'].isnull().any():
                logger.error(f"Falha na conversão da coluna 'time' para datetime no arquivo {file}.")
                return pd.DataFrame()

        # Verificar se o DataFrame possui dados suficientes
        if len(df) < 2:
            logger.warning(f"O arquivo {file} possui menos de duas linhas. Pulando processamento.")
            return pd.DataFrame()

        # Calcular direções
        df = calculate_dollar_directions(df)

        # Verificar se 'price_change' foi criada
        if 'price_change' not in df.columns:
            logger.error(f"A coluna 'price_change' não foi criada no arquivo {file}.")
            return pd.DataFrame()

        # Continuar com o processamento original
        df['direction_change'] = (df['dollar_direction'] != df['dollar_direction'].shift()).cumsum()
        df['cumulative_dollar'] = df.groupby('direction_change')['trade_dollar'].cumsum()
        df['bar_number'] = (df['cumulative_dollar'] // dollar_threshold).astype(int) + (df['direction_change'] * 1e6).astype(int)

        # Limitar o DataFrame ao número máximo de registros
        df = df.head(max_records)

        # Agrupar por bar_number e realizar as agregações
        grouped = df.groupby('bar_number').agg(
            trade_count=('trade_id', 'count'),
            price_open=('price', 'first'),
            price_high=('price', 'max'),
            price_low=('price', 'min'),
            price_close=('price', 'last'),
            qty_sum=('qty', 'sum'),
            quoteQty_sum=('quoteQty', 'sum'),
            time=('time', 'max'),
            isBuyerMaker_avg=('isBuyerMaker', 'mean'),
            isBestMatch_avg=('isBestMatch', 'mean')
        ).reset_index(drop=True)

        logger.info(f"Arquivo {file} processado com sucesso.")
        return grouped
    except Exception as e:
        logger.error(f"Erro ao processar o arquivo {file}: {e}")
        logger.error(traceback.format_exc())
        return pd.DataFrame()

def create_dollar_run_bars(dataset_path, dollar_threshold, output_path, max_records):
    if os.path.exists(output_path):
        logger.info(f"'dollar_run_bars' já existe. Carregando de {output_path}...")
        dollar_run_bars = dd.read_parquet(output_path).compute()
        logger.info("'dollar_run_bars' carregado com sucesso.")
    else:
        logger.info("Criando 'dollar_run_bars'...")
        # Obter a lista de arquivos Parquet no dataset_path
        parquet_files = [os.path.join(dataset_path, f) for f in os.listdir(dataset_path) if f.endswith('.parquet')]
        parquet_files.sort()

        # Inicializar contador de registros
        total_records = 0
        limited_files = []
        records_per_file = {}

        # Iterar sobre os arquivos para selecionar apenas os necessários para alcançar max_records
        for file in parquet_files:
            df_temp = pd.read_parquet(file)
            num_records = len(df_temp)
            if total_records + num_records <= max_records:
                limited_files.append(file)
                records_per_file[file] = num_records
                total_records += num_records
            else:
                remaining = max_records - total_records
                if remaining > 0:
                    limited_files.append(file)
                    records_per_file[file] = remaining
                    total_records += remaining
                break
            if total_records >= max_records:
                break

        if not limited_files:
            logger.warning("Nenhum arquivo para processar dentro do limite de registros.")
            return pd.DataFrame()

        logger.info(f"Total de registros a serem processados: {total_records}")

        # Aplicar a função a todos os arquivos limitados
        delayed_dfs = [process_file_run_bars(file, dollar_threshold, records_per_file[file]) for file in limited_files]

        # Computar em paralelo
        with ProgressBar():
            run_bars_dask = dd.from_delayed(delayed_dfs)
            dollar_run_bars = run_bars_dask.compute()

        # Verificar se o DataFrame resultante não está vazio
        if not dollar_run_bars.empty:
            # Salvar como Parquet
            dollar_run_bars.to_parquet(output_path, engine='pyarrow', compression='snappy')
            logger.info("'dollar_run_bars' criado e salvo com sucesso.")
        else:
            logger.warning("'dollar_run_bars' está vazio. Nenhum dado foi salvo.")

    return dollar_run_bars

@delayed
def process_file_imbalance_bars(file, dollar_threshold, max_records):
    try:
        df = pd.read_parquet(file)
        logger.info(f"Processando arquivo: {file}")
        logger.info(f"Colunas disponíveis: {df.columns.tolist()}")

        # Definir os tipos esperados
        expected_types = {
            'price': float,       # Assumindo que 'price' é float
            'qty': float,         # Assumindo que 'qty' é float
            'trade_id': int,      # 'trade_id' como inteiro
            'isBuyerMaker': bool,
            'isBestMatch': bool,
            'time': pd.Timestamp  # Assumindo que 'time' é datetime
        }

        # Verificar tipos de colunas
        if not check_column_types(df, expected_types, file):
            logger.error(f"Tipos de colunas inválidos no arquivo {file}. Pulando processamento.")
            return pd.DataFrame()

        # Converter 'time' para datetime, caso ainda não esteja
        if not np.issubdtype(df['time'].dtype, np.datetime64):
            logger.info(f"Convertendo coluna 'time' para datetime no arquivo {file}")
            df['time'] = pd.to_datetime(df['time'], unit='s', errors='coerce')
            if df['time'].isnull().any():
                logger.error(f"Falha na conversão da coluna 'time' para datetime no arquivo {file}.")
                return pd.DataFrame()

        # Verificar se o DataFrame possui dados suficientes
        if len(df) < 1:
            logger.warning(f"O arquivo {file} está vazio. Pulando processamento.")
            return pd.DataFrame()

        # Calcular desequilíbrio
        df = calculate_dollar_imbalance(df)

        # Calcular o acumulado de desequilíbrio
        df['cumulative_imbalance'] = df['dollar_imbalance'].cumsum()

        # Definir o número do bar baseado no limiar
        df['bar_number'] = (df['cumulative_imbalance'].abs() // dollar_threshold).astype(int)

        # Limitar o DataFrame ao número máximo de registros
        df = df.head(max_records)

        # Agrupar por bar_number e realizar as agregações
        grouped = df.groupby('bar_number').agg(
            trade_count=('trade_id', 'count'),
            price_open=('price', 'first'),
            price_high=('price', 'max'),
            price_low=('price', 'min'),
            price_close=('price', 'last'),
            qty_sum=('qty', 'sum'),
            quoteQty_sum=('quoteQty', 'sum'),
            time=('time', 'max'),
            isBuyerMaker_avg=('isBuyerMaker', 'mean'),
            isBestMatch_avg=('isBestMatch', 'mean')
        ).reset_index(drop=True)

        logger.info(f"Arquivo {file} processado com sucesso.")
        return grouped
    except Exception as e:
        logger.error(f"Erro ao processar o arquivo {file}: {e}")
        logger.error(traceback.format_exc())
        return pd.DataFrame()

def create_dollar_imbalance_bars(dataset_path, dollar_threshold, output_path, max_records):
    if os.path.exists(output_path):
        logger.info(f"'dollar_imbalance_bars' já existe. Carregando de {output_path}...")
        dollar_imbalance_bars = dd.read_parquet(output_path).compute()
        logger.info("'dollar_imbalance_bars' carregado com sucesso.")
    else:
        logger.info("Criando 'dollar_imbalance_bars'...")
        # Obter a lista de arquivos Parquet no dataset_path
        parquet_files = [os.path.join(dataset_path, f) for f in os.listdir(dataset_path) if f.endswith('.parquet')]
        parquet_files.sort()

        # Inicializar contador de registros
        total_records = 0
        limited_files = []
        records_per_file = {}

        # Iterar sobre os arquivos para selecionar apenas os necessários para alcançar max_records
        for file in parquet_files:
            df_temp = pd.read_parquet(file)
            num_records = len(df_temp)
            if total_records + num_records <= max_records:
                limited_files.append(file)
                records_per_file[file] = num_records
                total_records += num_records
            else:
                remaining = max_records - total_records
                if remaining > 0:
                    limited_files.append(file)
                    records_per_file[file] = remaining
                    total_records += remaining
                break
            if total_records >= max_records:
                break

        if not limited_files:
            logger.warning("Nenhum arquivo para processar dentro do limite de registros.")
            return pd.DataFrame()

        logger.info(f"Total de registros a serem processados: {total_records}")

        # Aplicar a função a todos os arquivos limitados
        delayed_dfs = [process_file_imbalance_bars(file, dollar_threshold, records_per_file[file]) for file in limited_files]

        # Computar em paralelo
        with ProgressBar():
            imbalance_bars_dask = dd.from_delayed(delayed_dfs)
            dollar_imbalance_bars = imbalance_bars_dask.compute()

        # Verificar se o DataFrame resultante não está vazio
        if not dollar_imbalance_bars.empty:
            # Salvar como Parquet
            dollar_imbalance_bars.to_parquet(output_path, engine='pyarrow', compression='snappy')
            logger.info("'dollar_imbalance_bars' criado e salvo com sucesso.")
        else:
            logger.warning("'dollar_imbalance_bars' está vazio. Nenhum dado foi salvo.")

    return dollar_imbalance_bars