capitulo
stringclasses
24 values
contexto
stringlengths
268
2.63k
nota_contexto
int64
1
5
pergunta
stringlengths
12
193
nota_pergunta
int64
1
5
resposta
stringlengths
6
700
nota_resposta
int64
1
5
adequacao_geral
stringclasses
1 value
observacao
stringlengths
13
495
Texto ou fala?
No caso da conversão de fala em texto, a diferença de tamanho entre a sequência de entrada da rede neural, vetores com features acústicas, e a de saída, palavras, costuma ser muito grande. Lembre-se de que o áudio foi digitalizado e, com a extração das informações de frequência, vetorizado. Cada vetor corresponde a uma...
5
Qual é o tamanho de um vetor de saída?
5
O tamanho de um vetor de saída é de 10 ms.
5
Sim
null
Texto ou fala?
Até alguns anos atrás, empregavam-se modelos estatísticos híbridos para resolver o problema do reconhecimento de fala. As arquiteturas utilizadas continham módulos que eram treinados de maneira independente. Os módulos eram o modelo acústico (AM), o modelo de língua (LM) e um modelo lexical com um dicionário de pronúnc...
5
Quais são os modelos estatísticos híbridos utilizados para resolver o problema de reconhecimento de fala?
5
HMM (Hidden Markov Model)
5
Sim
null
Texto ou fala?
Como o treinamento do modelo acústico HMM era baseado nos fones, era necessário balancear os dados de treinamento foneticamente. Isto é, a distribuição dos fones nos dados deveria refletir a sua proporção na língua falada. A consoante [l], por exemplo, um dos fones mais frequentes do português brasileiro, deveria ocorr...
5
O que era necessário para o treinamento do modelo acústico HMM?
5
Balancear os dados de treinamento foneticamente.
4
Sim
null
Texto ou fala?
Uma arquitetura parecida com as híbridas, chamada CTC (Connectionist Temporal Classification), configura a forma mais simples de executar a tarefa de reconhecimento de fala. Assim como os modelos acústicos dos modelos híbridos, o CTC atribui labels (classes, dentre as possíveis letras do alfabeto) a cada frame de atrib...
5
O que o CTC faz?
5
Atribui labels (classes, dentre as possíveis letras do alfabeto) a cada frame de atributos acústicos e depois elimina as letras duplicadas seguidas uma da outra.
5
Sim
null
Texto ou fala?
Mais recentemente, começou-se a empregar redes neurais recorrentes na tarefa de ASR. Basicamente, essas redes, chamadas de RNN, tinham a vantagem de armazenar informação desde o início da sequência, ou no nosso caso, da sentença, configurando uma forma de “memória”. A computação dentro de uma unidade da rede leva em co...
5
O que é uma RNN-T?
5
RNN-T é a combinação do CTC, enquanto modelo acústico, com um predictor que faria as vezes de modelo de língua e reavaliaria a saída do CTC, gerando uma nova saída, levando em consideração o contexto.
5
Sim
null
Semântica distribucional
É relativamente fácil para nós, seres humanos, visualizarmos um texto e, a partir de uma simples leitura, extrairmos dele determinados tipos de informação. Por exemplo, ao ler o texto “Ser feliz sem motivo é a forma mais autêntica de felicidade.” podemos reconhecer o sentido das palavras e o significado do texto formad...
3
O que os algoritmos computacionais não conseguem processar?
2
Símbolos/palavras
5
Sim
Acho que esta questão é pouco pertinente para o capítulo como um todo.
Semântica distribucional
A semântica distribucional tem sido atualmente a principal abordagem de representação do significado lexical adotada nas mais diversas tarefas do processamento de linguagem natural. Nessa abordagem, os itens lexicais (palavras) são representados por meio de vetores de valores reais, conhecidos por vetores semânticos, q...
5
O que é a semântica distribucional?
5
A semântica distribucional tem sido atualmente a principal abordagem de representação do significado lexical adotada nas mais diversas tarefas do processamento de linguagem natural. Nessa abordagem, os itens lexicais (palavras) são representados por meio de vetores de valores reais, conhecidos por vetores semânticos, q...
4
Sim
null
Semântica distribucional
A semântica distribucional é ancorada na Hipótese Distribucional (Firth, 1957; Harris, 1954) que preconiza que palavras que têm um contexto linguístico semelhante tendem a ter significado similar ou aproximado. É o caso, por exemplo, de palavras como “ensino” e “educação” que costumam aparecer no mesmo contexto de pala...
4
O que é a semântica distribucional?.1
5
A semântica distribucional é ancorada na Hipótese Distribucional (Firth, 1957; Harris, 1954) que preconiza que palavras que têm um contexto linguístico semelhante tendem a ter significado similar ou aproximado.
3
Sim
null
Semântica distribucional
Os MSD são, frequentemente, classificados como vetores esparsos e vetores densos. Por exemplo, o modelo TF-IDF, amplamente adotado em tarefas que envolvem a comparação de similaridade entre documentos, como a detecção de plágio, a inferência textual e a recuperação de informações, é um exemplo clássico de vetor esparso...
5
O que é um vetor esparso?
5
Um vetor esparso é um vetor que contém muitos zeros.
5
Sim
null
Semântica distribucional
A representação vetorial semântica, ou simplesmente vetores semânticos, é um padrão de representação muito usual em PLN, que pode retratar vários aspectos do significado das palavras, como a similaridade (ex. “comércio” e “negócio”); a orientação de sentimento ou polaridade (ex. “fenomenal”, que conota uma avaliação po...
5
O que é representação vetorial semântica?
5
Representação vetorial semântica, ou simplesmente vetores semânticos, é um padrão de representação muito usual em PLN, que pode retratar vários aspectos do significado das palavras, como similaridade (ex. "comércio" e "negócio"), orientação de sentimento ou polaridade (ex. "fenomenal", que conota uma avaliação positiva...
5
Sim
null
Semântica distribucional
Espaços vetoriais são objetos de estudo da Álgebra Linear e são bem caracterizados pela sua dimensão, que, grosseiramente falando, representa o número de direções independentes no espaço. Um espaço vetorial é formado por uma coleção de objetos chamados vetores. Em um Modelo Semântico Distribucional é possível represent...
5
O que é um espaço vetorial?
5
Um espaço vetorial é formado por uma coleção de objetos chamados vetores.
3
Sim
Resposta incompleta
Semântica distribucional
Geralmente, os vetores semânticos são representados por meio de uma matriz de coocorrência (ou distribuição de coocorrência), que retrata a frequência de coocorrência das palavras. As representações matriciais mais comuns são a matriz termo-documento, onde cada dimensão (vetor) da matriz representa um documento, e a ma...
4
O que é uma matriz de coocorrência?
5
Uma matriz de coocorrência é uma representação matricial de palavras e documentos.
3
Sim
Resposta incompleta
Semântica distribucional
Na matriz termo-documento, o espaço vetorial é formado por uma coleção de documentos que representam pontos ou vetores nesse espaço. Cada vetor tem dimensão |V|, onde |V| representa o tamanho do vocabulário, que contém as palavras distintas (sem repetições) de todos os documentos da coleção. Assim, cada palavra do voca...
5
O que é uma matriz termo-documento?
5
A matriz termo-documento é formada por uma coleção de documentos que representam pontos ou vetores nesse espaço.
4
Sim
Resposta incompleta
Semântica distribucional
Em aplicações reais, os vocabulários têm milhares de palavras e o número de documentos pode ser enorme (imagine todas as páginas da web). Isso frequentemente resulta em vetores muito grandes, levando a matrizes esparsas, já que muitas palavras nunca aparecem em outros documentos. Para lidar com um grande número de dime...
5
O que é a Análise Semântica Latente?
5
A Análise Semântica Latente (em inglês, Latent Semantic Analysis – LSA) é uma técnica que reduz a dimensionalidade do espaço vetorial através da Decomposição em Valores Singulares (em inglês, Singular Value Decomposition – SVD).
4
Sim
null
Semântica distribucional
Na matriz de termo-contexto, o espaço vetorial é formado por uma coleção de palavras que representam vetores nesse espaço. A matriz de coocorrência tem dimensionalidade |V| * |V| e cada célula representa o número de vezes que a palavra da linha (alvo) e a palavra da coluna (contexto) coocorrem em algum contexto em um c...
5
O que é uma célula da matriz de coocorrência?
5
Uma célula da matriz de coocorrência representa o número de vezes que a palavra da linha (alvo) e a palavra da coluna (contexto) coocorrem em algum contexto em um corpus de treinamento.
5
Sim
null
Semântica distribucional
Uma tarefa bastante comum do processamento de linguagem natural consiste em calcular a similaridade entre vetores de documentos ou vetores de palavras, seja para estabelecer uma métrica de semelhança entre dois textos ou para se ter uma medida de equivalência entre duas palavras. Para tanto, faz-se necessário o emprego...
4
O que é necessário para calcular a similaridade entre vetores de documentos ou vetores de palavras?
3
É necessário o emprego de alguma medida de similaridade entre vetores.
5
Sim
null
Semântica distribucional
A medida do Cosseno é menos sensível à frequência de ocorrência das palavras em um corpus do que outras medidas de similaridade, como a Distância Euclidiana. Isso significa que as palavras menos frequentes não terão um peso desproporcional no cálculo da similaridade entre os vetores. Essa é principal razão que faz com ...
5
Por que a medida do cosseno é menos sensível à frequência de ocorrência das palavras em um corpus do que outras medidas de similaridade, como a distância euclidiana?
5
Isso significa que as palavras menos frequentes não terão um peso desproporcional no cálculo da similaridade entre os vetores.
4
Sim
null
Semântica distribucional
Vimos nas Seções 10.1.1 e 10.1.2 que as matrizes termo-documento e termo-contexto associam a frequência de ocorrência de cada termo ao documento ou contexto em que ocorrem. No entanto, a frequência simples de um termo (isto é, o número de vezes que ele ocorre) é pouco discriminativa, já que algumas palavras (como “porq...
5
Por que as medidas TF-IDF e PMI são mais eficazes do que a simples frequência de um termo para discriminar o conteúdo de um documento ou um contexto?
5
Porque muitos termos nunca ocorrem em alguns documentos de uma coleção ou nunca aparecem em certos contextos.
4
Sim
null
Semântica distribucional
A medida TF-IDF representa uma alternativa mais eficiente do que a contagem de termos para atribuir valores aos termos de uma matriz termo-documento. Ela atribui um peso para cada termo de um documento multiplicando a frequência do termo no documento (TF) pelo inverso da frequência do termo em todos os documentos de um...
5
O que é a medida TF-IDF?
5
A medida TF-IDF representa uma alternativa mais eficiente do que a contagem de termos para atribuir valores aos termos de uma matriz termo-documento.
1
Sim
null
Semântica distribucional
A frequência de um termo (TF) mede a sua importância em um documento. Ela é calculada com base no número de ocorrências de um termo t em um documento d, dividido pelo total de termos do documento d (conforme a Equação 10.5). Essa medida é importante porque, em geral, as palavras que aparecem com mais frequência em um d...
5
O que é a frequência de um termo (TF)?
3
A frequência de um termo (TF) mede a sua importância em um documento.
4
Sim
null
Semântica distribucional
A frequência inversa no documento (IDF) mede, portanto, a importância relativa de uma palavra em uma coleção de documentos. Ela é calculada dividindo-se o número total de documentos da coleção pelo número de documentos que contêm a palavra em questão e tomando o logaritmo desse resultado. Seja N o número de documentos ...
5
O que é a frequência inversa?
5
A frequência inversa mede a raridade de uma palavra em um conjunto de documentos.
4
Sim
null
Semântica distribucional
Quanto menor o número de documentos que contêm determinado termo, maior será o TF-IDF daquele termo. Em suma, termos que aparecem com frequência em muitos documentos recebem um peso menor do que os termos mais específicos de um determinado documento. TF-IDF é uma medida bastante versátil e amplamente utilizada em vária...
3
O que é TF-IDF?
5
TF-IDF é uma medida bastante versátil e amplamente utilizada em várias tarefas que envolvem o processamento de textos.
3
Sim
Resposta incompleta
Semântica distribucional
Uma forma mais eficaz de pesar os termos de uma matriz termo-contexto, comparada à simples contagem de coocorrência de termos, é usar a medida PMI (do inglês, Pointwise Mutual Information). PMI é uma medida estatística que auxilia na identificação de palavras associadas. Dito de outra forma, ela mede qual é a probabili...
5
O que é PMI?
5
PMI é uma medida estatística que auxilia na identificação de palavras associadas.
5
Sim
Resposta incompleta
Recursos para o processamento de fala
Existem outras bases para tarefa de ASR que também valem a pena ser citadas. Entre elas, o Multilingual Spoken Corpus (Mazumder et al., 2021) é uma base de palavras faladas em 50 idiomas e contém um recorte de cerca de 1 segundo dos áudios do Common Voice, totalizando 58 horas de áudio em português. Diferentemente das ...
4
Quais são as outras bases para tarefas de ASR que também valem a pena ser citadas?
3
Multilingual Spoken Corpus (Mazumder et al., 2021)
4
Sim
null
Recursos para o processamento de fala
Por fim, algumas das bases não são voltadas a ASR, mas a tarefas relacionadas, como tradução de fala para texto. O corpus CoVoST (Wang et al., 2020; Wang; Wu; Pino, 2020) é um recorte da base Common Voice, mas com foco em tradução de fala para texto. Na versão 2, cerca de 17 horas são disponibilizadas para o português ...
3
Quais são as bases de dados que não são voltadas para ASR, mas para tarefas relacionadas, como tradução de fala para texto?
4
CoVoST
5
Sim
null
Recursos para o processamento de fala
O reconhecimento de emoções a partir da fala é uma área de estudo promissora que visa compreender as emoções expressas vocalmente pelos indivíduos (Akçay; Oğuz, 2020; El Ayadi; Kamel; Karray, 2011; Singh; Goel, 2022). Uma das teorias mais clássicas nesse campo é a Teoria das Emoções Básicas de Ekman (Ekman, 1992), que ...
5
Quais são as emoções básicas?
5
Alegria, tristeza, raiva, medo, surpresa e aversão.
5
Sim
null
Recursos para o processamento de fala
No âmbito do projeto TaRSila, há uma frente de trabalho denominada SER (Speech Emotion Recognition) que visa enfrentar os desafios mencionados anteriormente, com foco específico no reconhecimento de emoções na fala em português. Um diferencial importante deste projeto é o desenvolvimento de abordagens que lidam com fal...
5
Quais são os desafios enfrentados pelo projeto TaRSila?
5
O reconhecimento de emoções na fala em português.
5
Sim
null
Recursos para o processamento de fala
Uma das etapas cruciais desse projeto foi a preparação do corpus CORAA-SER, que consiste em aproximadamente 1 hora de áudio de fala espontânea, anotado com presença ou ausência de emoção, envolvendo homens e mulheres. O corpus foi obtido a partir de anotações paralinguísticas de outro corpus denominado C-ORAL–BRASIL I,...
5
Quais são as etapas cruciais desse projeto?
5
Preparação do corpus CORAA-SER, que consiste em aproximadamente 1 hora de áudio de fala espontânea, anotado com presença ou ausência de emoção, envolvendo homens e mulheres.
4
Sim
null
Recursos para o processamento de fala
O CORAA-SER possui segmentos de áudio rotulados em três categorias: neutro (491 áudios), não-neutro-feminino (89 áudios) e não-neutro-masculino (45 áudios). Também são disponibilizadas duas versões pré-processadas dos áudios:Características prosódicas: foram disponibilizadas características físicas da fala, como entona...
5
Quais são as características do Wav2Vec?
4
Foi utilizado um modelo Wav2Vec (Baevski et al., 2020) pré-treinado para extração de características do áudio.
3
Sim
null
Recursos para o processamento de fala
O corpus do projeto NURC tem sido amplamente utilizado para estudar vários aspectos da língua falada, tendo se tornado um dos corpora mais influentes da linguística brasileira. A maioria dos estudos deriva de transcrições de pequenos subcorpora compartilhados por pesquisadores que trabalham em cada capital (Castilho, 1...
5
Quais são os corpus mais influentes da linguística brasileira?
3
O corpus do projeto NURC
4
Sim
A pergunta pode ser mais específica, incluindo a tarefa. Linguística brasileira é muito geral.
Recursos para o processamento de fala
Embora os procedimentos que orientam o processamento do NURC-SP sejam baseados no protocolo do NURC Digital, eles incorporam sistemas de processamento de fala que incluem, por exemplo, um reconhecedor automático de fala atual (Whisper15), um alinhador forçado áudio-transcrição baseado em síntese de fala (aeneas16) e al...
5
Quais são os sistemas de processamento de fala que são incorporados aos procedimentos que orientam o processamento do NURC-SP?
5
Um reconhecedor automático de fala atual (Whisper15), um alinhador forçado de transcrição de áudio baseado em síntese de fala (Aeneas16) e alinhadores fonéticos automáticos (Batista; Dias; Neto, 2022; Kruse; Barbosa, 2021).
5
Sim
null
Recursos para o processamento de fala
A relevância de um corpus de português brasileiro processado e anotado prosodicamente está no fato de que a delimitação de fronteiras prosódicas melhora o desempenho de sistemas de processamento de línguas naturais (e.g. Chen; Hasegawa-Johnson, 2004; Lin et al., 2016, 2019; Ludusan; Synnaeve; Dupoux, 2015; Yang et al.,...
5
O que é possível fazer com o corpus de português brasileiro processado e anotado prosodicamente?
5
É possível usar tal corpus como um conjunto de referência para o treinamento de sistemas automáticos de reconhecimento de fala espontânea, detecção de sotaques e parsing e, assim, alavancar o desenvolvimento de métodos de processamento de fala do português brasileiro e viabilizar novos estudos linguísticos, dada a sua ...
4
Sim
Não precisa da parte de disponibilizar no portal web na resposta.
Recursos para o processamento de fala
CORAA ASR (Candido Junior et al., 2022) é um corpus para reconhecimento automático de fala que contém também fala espontânea, um tópico pouco pesquisado em projetos similares. Esse corpus faz parte do corpus multi-tarefa CORAA e está inserido no projeto TaRSila. O CORAA ASR é a junção de cinco projetos independentes: (...
5
Quais são os cinco projetos independentes que compõem o CORAA ASR?
5
ALIP, C-ORAL-Brasil I, NURC-Recife, SP-2010 e TeDx Talks.
5
Sim
null
Recursos para o processamento de fala
O corpus Common Voice (Ardila et al., 2019) é um projeto de uso aberto criado pela Fundação Mozilla, responsável pelo navegador Firefox. O projeto é uma resposta à carência de recursos para várias línguas, incluindo o português. No projeto, os usuários podem ao mesmo tempo contribuir para o crescimento da base e acessa...
5
Quais são os objetivos do projeto Common Voice?
5
O projeto tem como objetivo a criação de uma grande base colaborativa de áudio.
4
Sim
A resposta ficará mais completa se comentar sobre a licença.
Recursos para o processamento de fala
Para o treinamento de modelos de reconhecimento de fala, havia aproximadamente 60 horas, divididas em quatro pequenos conjuntos de dados de fala lida (em inglês, read speech), isto é, uma fala preparada para ser lida, em contraste com a fala espontânea: (1) o Common Voice Corpus versão 5.1 (da Mozilla) (2) o dataset Si...
4
Quais são os quatro conjuntos de dados de fala lida usados para treinar modelos de reconhecimento de fala?
4
Common Voice Corpus versão 5.1 (da Mozilla), dataset Sid, VoxForge e LapsBM 1.42.
4
Sim
null
Recursos para o processamento de fala
A fala espontânea possui fenômenos que tornam o seu reconhecimento mais complexo do que o da fala lida, como as pausas preenchidas e as disfluências de edição. Exemplos de projetos que tratam da fala lida são o Librivox, que distribui os livros de domínio público em formato de áudio. Estes áudios têm sido usados em vár...
4
Quais são os fenômenos que tornam a fala espontânea mais complexa do que a fala lida?
5
Pausas preenchidas e disfluências de edição.
4
Sim
null
Recursos para o processamento de fala
Nesse cenário de escassez de dados públicos de fala em PB para treinamento de sistemas de processamento de fala, foi concebido, em agosto de 2020, o projeto TaRSila do Center for Artificial Intelligence da Universidade de São Paulo, financiado pela IBM e FAPESP. O projeto TaRSila visa a aumentar os conjuntos de dados d...
4
O que é o projeto TaRSila?
4
O projeto TaRSila visa aumentar os conjuntos de dados de fala em PB tanto para treinamento de sistemas como também para pesquisas linguísticas nas seguintes tarefas do processamento de fala:
4
Sim
null
Recursos para o processamento de fala
Além das sete tarefas acima em estudo no TaRSila, o livro sobre Processamento de Fala9 (Bäckström et al., 2022) apresenta outras tarefas típicas, como o reconhecimento e verificação de locutor, a restauração de fala e a diarização:reconhecimento de locutor e verificação de locutor, que se referem, respectivamente, à id...
4
O que é a restauração de fala?
5
Restauração de fala é o processo de melhorar uma gravação de um sinal de fala para, por exemplo, remover ruído de fundo ou o efeito da acústica do ambiente.
5
Sim
null
Recursos para o processamento de fala
Neste capítulo, apresentamos os recursos de fala criados nos três primeiros anos do projeto TaRSila para ilustrar várias das tarefas da área de processamento de fala, acima elencadas, que são definidas e exemplificadas em cada seção. Nesse percurso, fazemos um contraste com a língua inglesa que possui mais recursos par...
4
Quais são as tarefas da área de processamento de fala?
3
Reconhecimento de fala, transcrição automática, síntese de fala, tradução de fala, geração de texto, análise de sentimento, análise de voz.
3
Sim
null
Recursos para o processamento de fala
Os vários recursos desenvolvidos no TaRSila têm o prefixo CORAA (CORpus de Áudios Anotados), que é um grande corpus multipropósito do português brasileiro no qual os arquivos de áudios estão alinhados com transcrições que foram (ou estão sendo) manualmente validadas para cada tarefa estudada no TaRSila.
4
O que é o CORAA?
4
CORpus de Áudios Anotados
2
Sim
null
Recursos para o processamento de fala
Começamos apresentando, na Seção 3.2, o TTS-Portuguese Corpus, corpus para treinamento de modelos de síntese de fala, criado e disponibilizado no início de 2020 com a fala de um único locutor. Esse corpus permitiu avançar pesquisas sobre síntese de fala, conversão de voz e uma abordagem de aumento de dados para treinar...
4
Quais são os corpus disponíveis no CORAA?
3
CORAA NURC-SP, CORAA ASR versão 1.1, CORAA SER versão 1.0, MuPe.
4
Sim
null
Recursos para o processamento de fala
O advento do deep learning permitiu a integração dos módulos específicos dos sistemas de síntese de fala tradicionais em um único modelo. Apesar dos modelos baseados em deep learning serem às vezes criticados devido à dificuldade de interpretá-los, vários sistemas de síntese de fala baseado em deep learning (Kim et al....
5
Quais são os benefícios do uso de sistemas de síntese de fala baseados em deep learning?
5
Os sistemas de síntese de fala baseados em deep learning demonstraram a capacidade de sintetizar fala com uma qualidade muito promissora, superior inclusive aos sistemas tradicionais.
4
Sim
Faltou mencionar na resposta a integracao em um único modelo.
Recursos para o processamento de fala
Modelos baseados em deep learning requerem uma quantidade maior de dados para treinamento, portanto, idiomas com poucos recursos disponíveis ficam prejudicados. Por esse motivo, a maioria dos modelos de síntese de fala atuais são projetados para o inglês (Kim et al., 2020; Kim; Kong; Son, 2021; Ping et al., 2017; Shen ...
5
Por que a maioria dos modelos de síntese de fala atuais são projetados para o inglês?
5
Porque o inglês é um idioma com muitos recursos disponíveis publicamente.
5
Sim
null
Recursos para o processamento de fala
Para o inglês existem vários corpora que podem ser utilizados para treinar modelos de síntese de fala baseados em deep learning, por exemplo, os corpora VCTK (Veaux et al., 2017), LJ Speech (Ito, 2017), LibriTTS (Zen et al., 2019) e LibriTTS-R (Koizumi et al., 2023a).
4
Quais são os corpus utilizados para treinar modelos de síntese de fala baseados em deep learning?
5
VCTK (Veaux et al., 2017), LJ Speech (Ito, 2017), LibriTTS (Zen et al., 2019) e LibriTTS-R (Koizumi et al., 2023a).
5
Sim
null
Recursos para o processamento de fala
O corpus VCTK (Veaux et al., 2017) é composto por 44 horas de fala de 108 locutores, sendo 61 do sexo feminino e 47 do sexo masculino. Além disso, o corpus inclui amostras de 11 variedades linguísticas do inglês, sendo elas: britânico, americano, canadense, neozelandês, sul-africano, australiano, escocês, norte-irlandê...
5
Quais são as variedades linguísticas do inglês presentes no corpus VCTK?
5
Britânico, americano, canadense, neozelandês, sul-africano, australiano, escocês, norte-irlandês, irlandês, indiano e galês.
5
Sim
null
Recursos para o processamento de fala
Para suprir essa carência de dados para síntese de fala no português brasileiro, em 2019, a coleta do corpus TTS-Portuguese Corpus (Casanova, 2019; Casanova et al., 2022, 2022) foi iniciada (Casanova, 2019). Posteriormente, em 2020, o corpus foi tornado público (Casanova et al., 2022) e os detalhes de sua compilação fo...
4
Quando foi iniciada a coleta do corpus TTS-Portuguese Corpus?
4
Em 2019.
5
Sim
null
Recursos para o processamento de fala
Para a construção do TTS-Portuguese Corpus, foram utilizados textos de domínio público. Inicialmente, buscando alcançar um vocabulário amplo, extraíram-se todos os artigos das seções de destaques da Wikipédia (da época em que foi compilado) para todas as áreas do conhecimento. Após essa extração, os artigos foram segme...
5
Quais são os corpus utilizados para a construção do TTS-Portuguese Corpus?
5
Textos de domínio público, artigos da Wikipédia, conjuntos de sentenças foneticamente balanceadas e frases do Chatterbot-corpus13.
4
Sim
null
Recursos para o processamento de fala
A gravação do TTS-Portuguese Corpus foi realizada por um locutor masculino, nativo do português brasileiro, não profissional, em ambiente silencioso, mas sem isolamento acústico devido às dificuldades de acesso a estúdio de gravação. Todos os áudios foram gravados com frequência de amostragem de 48 kHz e resolução de 3...
3
Quais são as características do TTS-Portuguese Corpus?
5
O TTS-Portuguese Corpus consiste em um total de 71358 palavras faladas, 13311 palavras únicas, resultando em 3632 arquivos de áudio e totalizando 10 horas e 28 minutos de fala.
5
Sim
O contexto apresenta muitas informações em excesso.
Recursos para o processamento de fala
Em paralelo com o TTS-Portuguese Corpus, foram lançados dois conjuntos de dados para reconhecimento automático de fala do português, com boa qualidade. O primeiro, o CETUC (Alencar; Alcaim, 2008), disponibilizado publicamente por Quintanilha; Netto; Biscainho (2020), tem aproximadamente 145 horas de fala de 100 locutor...
5
Quais são os dois conjuntos de dados para reconhecimento automático de fala do português?
5
CETUC e o corpus Multilingual LibriSpeech (MLS)
5
Sim
null
Recursos para o processamento de fala
Além disso, mais recentemente, o corpus CML-TTS (Oliveira et al., 2023) foi proposto. O CML-TTS é baseado no corpus Multilingual LibriSpeech (MLS) e foi adaptado para treinamento de modelos de síntese de fala. O CML-TTS é composto por audiolivros em sete idiomas: holandês, francês, alemão, italiano, português, polonês ...
5
Quais são os idiomas que compõem o corpus CML-TTS?
5
holandês, francês, alemão, italiano, português, polonês e espanhol.
5
Sim
null
Recursos para o processamento de fala
Para o português brasileiro, trabalhos desenvolvidos no âmbito do projeto C-ORAL–Brasil avançam os estudos para a detecção automática de fronteiras prosódicas na fala espontânea a partir de parâmetros fonético-acústicos e fronteiras identificadas perceptualmente por anotadores treinados (Raso; Teixeira; Barbosa, 2020; ...
4
Quais são os objetivos do projeto C-ORAL–Brasil?
5
Avançar os estudos para a detecção automática de fronteiras prosódicas na fala espontânea a partir de parâmetros fonético-acústicos e fronteiras identificadas perceptualmente por anotadores treinados.
5
Sim
Creio que, para o contexto, não seja necessário abordar o projeto TaRSila, a informação é excessiva.
Recursos para o processamento de fala
O CORAA NURC-SP toma como base dados provenientes do projeto acadêmico NURC–Norma Urbana Linguística Culta, que foi iniciado em 1969 com o objetivo de documentar e estudar a língua portuguesa falada por pessoas com ensino superior completo, denominadas ‘cultas’, de cinco capitais brasileiras: Recife, Salvador, Rio de J...
5
Quais são as capitais brasileiras que foram estudadas pelo projeto NURC?
5
Recife, Salvador, Rio de Janeiro, São Paulo e Porto Alegre.
5
Sim
null
Recursos para o processamento de fala
Como em todas as capitais, o NURC-São Paulo (NURC-SP)14 reúne mais de 300 horas de gravação, apresentando falantes com nível superior; nascidos e criados na cidade; filhos de falantes nativos de português; igualmente divididos em homens e mulheres; e distribuídos em três faixas etárias (25–35, 36–55 e 56 anos em diante...
5
Quais são as faixas etárias dos falantes do NURC-SP?
5
25-35, 36-55 e 56 anos em diante.
5
Sim
null
PLN na Saúde
Uma atividade socio-semiótica muito relevante no domínio da medicina é documentar fatos e experiências, por meio de questionários aplicados ao paciente, registros de exames clínicos e relatos de profissionais da saúde, nos quais são documentadas percepções sobre a saúde do paciente. Esses textos são conhecidos em PLN c...
4
Quais são os tipos de textos que podem ser usados para extrair ontologias?
5
Artigos acadêmicos, por exemplo.
5
Sim
null
PLN na Saúde
Narrativas clínicas, por outro lado, são textos não estruturados que oferecem informações valiosas sobre a história do paciente, incluindo seus sintomas, histórico médico, estilo de vida e outras informações relevantes. A mineração desses dados pode ser usada para identificar padrões e relacionamentos entre os dados, p...
5
Quais são os benefícios da mineração de dados em narrativas clínicas?
5
A mineração de dados pode ser usada para identificar padrões e relacionamentos entre os dados, permitindo uma melhor compreensão da condição do paciente e a construção de modelos preditivos para prever possíveis complicações ou doenças.
5
Sim
null
PLN na Saúde
Com o advento do Registro Eletrônico de Saúde (RES), como é denominado no Brasil, ou em inglês, o Electronic Health Record (EHR), a quantidade de dados gerados relativos à atenção aos pacientes aumentou significativamente. Os prontuários eletrônicos podem conter dados estruturados, semiestruturados ou não estruturados,...
5
O que pode ser feito com a mineração de dados?
5
Identificar tendências e padrões em relação a diagnósticos, tratamentos e resultados, permitindo uma melhor gestão do cuidado do paciente e um melhor planejamento da assistência.
5
Sim
null
PLN na Saúde
No escopo do que chamamos narrativas clínicas, há diferentes tipos de texto, os quais apresentam desafios específicos em termos do tipo de linguagem e também da relevância das informações registradas. Por exemplo, as notas de evolução de enfermagem podem ser mais descritivas e detalhadas do que outros tipos de texto, e...
5
Quais são os tipos de texto que podem ser encontrados em um escopo de narrativas clínicas?
5
Notas de evolução de enfermagem, sumários de alta e notas de ambulatório.
5
Sim
null
PLN na Saúde
Outra técnica importante na busca e extração de conceitos clínicos é o mapeamento de terminologia, que consiste na associação dos termos clínicos encontrados nos textos com um conjunto de termos padronizados, como a Classificação Internacional de Doenças (CID) ou o Systemized Nomenclature of Medicine (SNOMED CT). Isso ...
4
Quais são as vantagens do mapeamento de terminologia?
5
O mapeamento de terminologia permite uma melhor organização e interpretação dos dados clínicos, facilitando a análise e a tomada de decisão médica.
5
Sim
null
PLN na Saúde
A busca e extração de conceitos clínicos relevantes é fundamental para a análise de dados clínicos em larga escala, permitindo a identificação de padrões e tendências em doenças, tratamentos e outros aspectos da saúde. Além disso, essas técnicas de PLN também podem ser utilizadas para a construção de sistemas de suport...
5
Quais são os benefícios da extração de conceitos clínicos relevantes?
5
A extração de conceitos clínicos relevantes é fundamental para a análise de dados clínicos em larga escala, permitindo a identificação de padrões e tendências em doenças, tratamentos e outros aspectos da saúde.
5
Sim
null
PLN na Saúde
Uma linha do tempo do paciente é uma representação gráfica que organiza as informações clínicas de um paciente de maneira cronológica. O interesse pela pesquisa em extração de relações temporais provém da característica longitudinal dos dados presentes nos Registros Eletrônicos de Saúde. Esses registros contêm múltiplo...
5
O que é uma linha do tempo do paciente?
5
Uma linha do tempo do paciente é uma representação gráfica que organiza as informações clínicas de um paciente de maneira cronológica.
5
Sim
null
PLN na Saúde
No contexto clínico, eventos médicos são circunstâncias clínicas de relevância, cujo escopo é delimitado pelo contexto da aplicação. Por exemplo, para a extração de informações significativas para o diagnóstico, pode ser apropriado delimitar eventos como menções a tratamentos passados, sinais, sintomas, medicamentos em...
4
O que é um evento médico?
4
Eventos médicos são circunstâncias clínicas de relevância, cujo escopo é delimitado pelo contexto da aplicação.
4
Sim
o parágrafo tinha eventos e expressões temporais, a pergunta envolveu só eventos
PLN na Saúde
A aplicação prática de uma linha do tempo na área da saúde pode ser utilizada para analisar a evolução do quadro clínico do paciente ao longo do tempo, identificar possíveis tendências e realizar previsões. Além disso, a linha do tempo do paciente pode ser integrada a sistemas de suporte à decisão médica, contribuindo ...
5
Quais são as vantagens da aplicação prática de uma linha do tempo na área da saúde?
5
A linha do tempo do paciente pode ser integrada a sistemas de suporte à decisão médica, contribuindo para a seleção de tratamentos mais adequados para cada paciente.
5
Sim
null
PLN na Saúde
Na abordagem extrativa, as frases mais importantes do texto original são selecionadas e combinadas para formar um resumo. Já na abordagem abstrativa, o resumo é gerado a partir da síntese das informações do texto original, gerando uma nova versão que não necessariamente contém as mesmas palavras e frases do texto origi...
5
Quais são as duas abordagens para a geração de resumos?
5
Extrativa e abstrata
5
Sim
null
PLN na Saúde
Embora a tecnologia de PLN na área clínica tenha avançado significativamente nos últimos anos, ainda existem vários desafios a serem superados. Alguns desses desafios incluem:Garantir a qualidade dos dados clínicos utilizados para treinar e testar os modelos de PLN, incluindo a devida anonimização e a padronização dos ...
5
Quais são alguns dos desafios que a tecnologia de PLN na área clínica ainda precisa superar?
5
Garantir a qualidade dos dados clínicos utilizados para treinar e testar os modelos de PLN, incluindo a devida anonimização e padronização dos termos utilizados, assegurando a ética e a privacidade dos dados clínicos; Desenvolver modelos de PLN capazes de lidar com textos clínicos mais complexos e heterogêneos, como no...
5
Sim
ficou muito bom, mas só repetiu o texto de cima, sumarizar poderia ser o ideal, ficou um pouco longa