Dataset Viewer
Duplicate
The dataset viewer is not available for this split.
Cannot extract the features (columns) for the split 'train' of the config 'agents' of the dataset.
Error code:   FeaturesError
Exception:    ArrowInvalid
Message:      Schema at index 1 was different: 
Detalhes: struct<Persona: string, Resumo da Missao: string>
Agentes: list<item: struct<id: string, nome: string, Resumo da Missao: string, modelo: string, missao: string, temperatura: double, max_tokens: int64, response_format: struct<type: string>, estrutura_saida: string, reasoning_effort: string, stream: bool, max_completion_tokens: int64, compound_custom: struct<tools: struct<enabled_tools: list<item: null>>>>>
vs
Detalhes: struct<Persona: string, Resumo da Missao: string>
Agentes: list<item: struct<id: string, nome: string, Resumo da Missao: string, modelo: string, missao: string, temperatura: double, max_tokens: int64, response_format: struct<type: string>, estrutura_saida: string, reasoning_effort: string, stream: bool, max_completion_tokens: int64, compound_custom: struct<tools: struct<enabled_tools: list<item: string>>>>>
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/split/first_rows.py", line 243, in compute_first_rows_from_streaming_response
                  iterable_dataset = iterable_dataset._resolve_features()
                                     ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 3496, in _resolve_features
                  features = _infer_features_from_batch(self.with_format(None)._head())
                                                        ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 2257, in _head
                  return next(iter(self.iter(batch_size=n)))
                         ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 2461, in iter
                  for key, example in iterator:
                                      ^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 1952, in __iter__
                  for key, pa_table in self._iter_arrow():
                                       ^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 1974, in _iter_arrow
                  yield from self.ex_iterable._iter_arrow()
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 531, in _iter_arrow
                  yield new_key, pa.Table.from_batches(chunks_buffer)
                                 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "pyarrow/table.pxi", line 5039, in pyarrow.lib.Table.from_batches
                File "pyarrow/error.pxi", line 155, in pyarrow.lib.pyarrow_internal_check_status
                File "pyarrow/error.pxi", line 92, in pyarrow.lib.check_status
              pyarrow.lib.ArrowInvalid: Schema at index 1 was different: 
              Detalhes: struct<Persona: string, Resumo da Missao: string>
              Agentes: list<item: struct<id: string, nome: string, Resumo da Missao: string, modelo: string, missao: string, temperatura: double, max_tokens: int64, response_format: struct<type: string>, estrutura_saida: string, reasoning_effort: string, stream: bool, max_completion_tokens: int64, compound_custom: struct<tools: struct<enabled_tools: list<item: null>>>>>
              vs
              Detalhes: struct<Persona: string, Resumo da Missao: string>
              Agentes: list<item: struct<id: string, nome: string, Resumo da Missao: string, modelo: string, missao: string, temperatura: double, max_tokens: int64, response_format: struct<type: string>, estrutura_saida: string, reasoning_effort: string, stream: bool, max_completion_tokens: int64, compound_custom: struct<tools: struct<enabled_tools: list<item: string>>>>>

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

IZAAC: Dataset de Configuração para um Ecossistema de Agentes Jurídicos de IA

Resumo do Dataset

Este repositório contém o conjunto completo de dados de configuração para o IZAAC, um ecossistema de agentes de IA especializados em tarefas jurídicas. O dataset é dividido em três configurações (tabelas) separadas, cada uma servindo a um propósito específico:

  1. agents: As definições completas de cada agente especialista e protocolo multi-etapas. Carrega arquivos dos diretórios agents/ (agentes de função única) e especialista/direito/ (protocolos multi-agente).
  2. feedback_data: A estrutura para coletar dados de feedback para o aprimoramento contínuo de cada agente.
  3. manifest: Um manifesto central que lista todos os protocolos disponíveis.

Estrutura dos Dados

Este dataset possui 3 configurações.

Configuração: agents

Contém as definições de todos os agentes e protocolos.

  • Detalhes: Um objeto contendo a Persona e o Resumo da Missao do agente/protocolo.
  • Agentes: Uma lista de objetos, onde cada objeto é um agente (ou uma etapa de um protocolo) com seus parâmetros.

Configuração: feedback_data

Contém os caminhos para os dados de feedback de cada agente.

  • agent_path: String com o caminho para o arquivo de definição do agente correspondente.
  • positive_data: Uma lista para armazenar exemplos de execuções bem-sucedidas.
  • negative_data: Uma lista para armazenar exemplos de execuções mal-sucedidas.

Configuração: manifest

Contém o manifesto de protocolos.

  • versao_manifesto: String da versão do manifesto.
  • descricao: Descrição do propósito do manifesto.
  • protocolos_disponiveis: Uma lista de objetos que descrevem cada protocolo.

Uso

Para carregar o dataset completo com todas as configurações, use o seguinte código:

from datasets import load_dataset

# Substitua 'caarleexx/izaac_data' pelo seu nome de usuário/dataset no Hub
repo_id = "caarleexx/izaac_data"

# Carrega todas as configurações em um DatasetDict
izaac_dataset_dict = load_dataset(repo_id)
print(izaac_dataset_dict)
# Saída esperada:
# DatasetDict({
#     agents: Dataset(...)
#     feedback_data: Dataset(...)
#     manifest: Dataset(...)
# })

# Para carregar uma configuração específica
agents_table = load_dataset(repo_id, name="agents", split="train")
print(agents_table)
Downloads last month
103