| Dataset Multimodal - Documentación | |
| ================================== | |
| 1. Descripción del Dataset | |
| ------------------------- | |
| Este dataset contiene información extraída de 9 archivos PDF. | |
| Total de entradas: 295 | |
| Total de páginas procesadas: 295 | |
| Total de imágenes extraídas: 2072 | |
| 2. Estructura del Dataset | |
| ------------------------- | |
| Cada entrada en el dataset contiene la siguiente información: | |
| - file: Nombre del archivo PDF de origen | |
| - page: Número de página dentro del PDF | |
| - text: Texto extraído de la página | |
| - tokens: Tokens generados a partir del texto (guardados en dataset_tensors.pt) | |
| - images: Lista de hashes de imágenes extraídas de la página (guardadas en dataset_tensors.pt) | |
| - chapter: Título del capítulo al que pertenece la página | |
| - chapter_summary: Resumen del contenido del capítulo | |
| 3. Archivos Generados | |
| --------------------- | |
| - dataset_multimodal.csv: Contiene toda la información excepto los tensores | |
| - dataset_tensors.pt: Archivo PyTorch con los tensores de texto e imagen | |
| - images/: Directorio con todas las imágenes extraídas | |
| 4. Cómo Usar el Dataset | |
| ---------------------- | |
| Para cargar y utilizar este dataset en un modelo de aprendizaje profundo: | |
| ```python | |
| import pandas as pd | |
| import torch | |
| # Cargar el CSV | |
| df = pd.read_csv('dataset_multimodal.csv') | |
| # Cargar los tensores | |
| tensors = torch.load('dataset_tensors.pt') | |
| text_tokens = tensors['text_tokens'] | |
| image_tensors = tensors['image_tensors'] | |
| # Ejemplo de acceso a los datos | |
| for i, row in df.iterrows(): | |
| print(f"Archivo: {row['file']}, Página: {row['page']}") | |
| print(f"Texto: {row['text'][:100]}...") | |
| print(f"Tokens: {text_tokens[i]['input_ids'].shape}") | |
| print(f"Imágenes: {len(row['images'])}") | |
| for img_hash in row['images']: | |
| print(f"Imagen {img_hash}: {image_tensors[img_hash]['tensor'].shape}") | |
| ``` | |
| 5. Notas Adicionales | |
| -------------------- | |
| - Los tokens de texto están limitados a una longitud máxima de 512 tokens. | |
| - Las imágenes han sido redimensionadas a 224x224 píxeles y normalizadas. | |
| - Asegúrese de tener suficiente memoria RAM al cargar el dataset completo. | |