de-francophones commited on
Commit
dea1e2d
·
verified ·
1 Parent(s): 580dcd1

Upload 2 files

Browse files
Files changed (2) hide show
  1. README_FR.txt +166 -0
  2. data.zip +3 -0
README_FR.txt ADDED
@@ -0,0 +1,166 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ =============================================================================
2
+
3
+ Package FrNewsLink : ressources pour l'évaluation des tâches de
4
+ segmentation et titrage thématique en français
5
+
6
+ ==============================================================================
7
+
8
+ Ce fichier décrit de façon synthétique le package FrNewsLink comprenant un ensemble de ressources permettant d'évaluer des tâches de segmentation thématique et titrage sur un corpus varié de journaux télévisés français. En raison de droits de diffusions, ce package ne contient ni les vidéos, ni les audios des journaux télévisés.
9
+
10
+ Le corpus propose à la fois des transcriptions automatiques de journaux télévisés et des articles de presses issus du web, le tout collecté durant la même période de temps afin que journaux et articles traitent des mêmes sujets d'actualités.
11
+
12
+ Les ressources de FrNewsLink s'appuient sur 86 journaux télévisés enregistrés durant la 7e semaine de 2014 (du 10 au 16 février) et 26 journaux enregistrés les 26 et 27 janvier 2015. La première période sera référencée par W07_14 et la seconde W05_15.
13
+
14
+ Ces journaux proviennent de 8 chaines différentes, avec un total de 14 émissions différentes puisque certaines chaines proposent plusieurs journaux dans la journée.
15
+
16
+ Ainsi on retrouvera, selon les jours, les émissions suivantes :
17
+ - Arte : Le journal
18
+ - D8 : Le JT
19
+ - Euronews
20
+ - France 2, les journaux de : 7h, 8h, 13h, 20h
21
+ - France 3 : Le 12-13, Le 19-20
22
+ - M6 : Le 12-45, Le 19-45
23
+ - NT1 : Les infos
24
+ - TF1, les journaux de : 13h, 20h
25
+
26
+ Durant la même période les articles parus sur la page principale de Google News ont été aspirés dans notre base de données toutes les heures. Ainsi, 28 709 entrées ont été saisies avec en moyenne 2,7k articles par jour. Plusieurs articles restent plus d'une heure sur le site et sont donc enregistrés plusieurs fois dans notre base. Lorsque l'on écarte les articles doublons, 22 141 articles sont restants.
27
+ Google News présente ses articles sous forme de "clusters thématiques" avec un article principal mis en avant pour chacun des clusters. Seuls ces articles principaux, environ 590 par jour, ont été considérés pour notre titrage thématique.
28
+
29
+ 0. Références et citation
30
+ =========================
31
+ Ce corpus a fait l'objet d'une publication à la conférence LREC 2018. Vous trouverez dans l'article de plus amples informations et un ensemble de statistiques.
32
+
33
+ Merci de citer ce papier si vous publiez sur FrNewsLink :
34
+
35
+ @inproceedings{CamelinLREC18,
36
+ TITLE = {{FrNewsLink : a corpus linking TV Broadcast News Segments and Press Articles}},
37
+ AUTHOR = {Camelin, Nathalie and Damnati, Géraldine and Bouchekif, Abdessalam and Landeau, Anais and Charlet, Delphine and Est{\`e}ve, Yannick},
38
+ BOOKTITLE = {{LREC 2018}},
39
+ ADDRESS = {Miyazaki, Japan},
40
+ YEAR = {2018},
41
+ MONTH = May,
42
+ KEYWORDS = {content linking, semantic textual similarity, topic segmentation}
43
+ }
44
+
45
+
46
+ 1. Contenu du package et version
47
+ =================================
48
+
49
+ == Contenu
50
+ Le package est structuré de la façon suivante:
51
+
52
+ <ROOT_DIR>
53
+ |----README_EN.TXT documentation en anglais
54
+ |----README_FR.TXT documentation en français
55
+ |----RELEASE.TXT version
56
+ |----<W0X_XX> 2 répertoires : W07_14 et W05_15, contenant chacun les données suivantes :
57
+ |----<TV_W0X_XX> répertoire contenant les données sur les journaux
58
+ | |-----*.ctm mots issus de la transcription automatique
59
+ | |-----*.stm transcriptions automatiques organisées selon la diarization automatique
60
+ |----<PRESS_W0X_XX> répertoire contenant les articles de web journaux
61
+ | |-----bdd_20XX_XX_XX_articles.csv base de données de tous les articles web
62
+ | |----<20XX_XX_XX> un répertoire par jour
63
+ | | |-----*.txt textes des articles web niveau 0
64
+ |----<ANNOTATIONS> répertoire contenant les annotations manuelles
65
+ | |-----*.trs segmentation thématique manuelle
66
+ | |-----*.assgn association manuelle entre articles et segments des vidéos
67
+
68
+ == Version
69
+ Ce package est la version 00, mise à disposition le 1/11/2017 sur le site du LIUM : https://lium.univ-lemans.fr/frnewslink/
70
+
71
+
72
+ 2. Formats de fichiers
73
+ ======================
74
+
75
+ == fichiers ctm, transcriptions automatiques
76
+ Chaque ligne correspond à l'hypothèse d'un mot énoncé dans un journal. Pour chaque hypothèse de mot, on associe un ensemble de champs, chacun séparé par un espace, qui représentent les informations suivantes :
77
+ nom du journal canal (valeur par défaut 1) deb_seg duree_mot mot mesure_confiance
78
+
79
+ = deb_seg représente le temps de début du segment
80
+
81
+ == fichiers stm, transcriptions selon la diarization automatique
82
+ Les mots des fichiers ctm sont regroupés selon les groupes de souffles. Pour chaque groupe de souffles, on associe un ensemble de champs, chacun séparé par un espace, qui représentent les informations suivantes :
83
+ nom_du_document 1 locuteur deb_seg fin_seg <caractériques_locuteurs> liste hypothèses de mot
84
+
85
+ = locuteur est représenté par le nom du cluster du locuteur (ex : S0, S19...). Attention, le clustering de locuteurs a été fait fichier par fichier de manière indépendante. Ainsi le locuteur S0 du fichier 1 ne représente pas la même personne que le locuteur S0 du fichier 2
86
+ = fin_seg représente le temps de fin du segment
87
+ = <caractériques_locuteurs> contient un triplet de valeur dont la dernière représente le sexe du locuteur (trouvé automatiquement)
88
+
89
+
90
+ == fichiers csv, base de données de tous les articles web
91
+ Pour chaque jour d'enregistrements des différents journaux, la base de données aspirant les informations de Google News toutes les heures est disponible. Google News présente ces articles par "clusters thématiques" et pour chaque cluster met en avant un article. Nous notons cet article comme principal.
92
+ Pour chaque article, les informations suivantes sont disponibles :
93
+ identifiant; id_categorie; id_site; id_article_principal; date_heure_aspiration; url; titre
94
+
95
+ = identifiant : L'identifiant permet de retrouver le texte de l'article web, aspiré et traité par Boilerpipe dans le même repétertoire et sous le nom identifiant.txt.
96
+ Attention, seuls les articles principaux sont disponibles, les articles associés n'ont pas été traités.
97
+
98
+ = id_categorie : Les catégories correspondent à celles proposés par Google News :
99
+ 1 Une
100
+ 2 International
101
+ 3 National
102
+ 4 Économie
103
+ 5 Sciences High Tech
104
+ 6 Culture
105
+ 7 Sport
106
+ 8 Santé
107
+ 9 Gros Plan
108
+
109
+ = id_site : Il serait trop long de lister tous les sites aspirés (5 322 entrées!), notons par exemple :
110
+ 56 www.lemonde.fr
111
+ 57 www.metrofrance.com
112
+ 58 www.lesechos.fr
113
+ 59 www.google.com
114
+ 60 www.toulouse7.com
115
+ 61 www.lejdd.fr
116
+ 62 www.elle.fr
117
+ 63 www.lefigaro.fr
118
+ 64 www.lexpress.fr
119
+ 65 www.letelegramme.com
120
+
121
+ = id_article_principal : ce champ contient soit la valeur 0 si l'article est le principal de son cluster thématique, soit l'identifiant de l'article principal auquel il est associé.
122
+
123
+ = date_heure_aspiration : ce champ contient la date JOUR/MOIS/ANNEE HEURE:MINUTE à laquel l'article a été enregistré.
124
+
125
+ = url et titre : ces champs contiennent l'adresse web d'origine de l'article et le titre indiqué sur la page de Google News.
126
+
127
+
128
+ == fichiers txt, le contenu textuel utile des articles de presses
129
+ Dans chaque fichier identifiant.txt, on retrouve le contenu utile extrait par Boilerpipe ainsi que le rappel des informations :
130
+ TITRE: [...]
131
+ DATE: [...]
132
+ URL: [...]
133
+ PRINCIPAL: 0
134
+ TEXT:
135
+ [...]
136
+
137
+
138
+ == fichiers trs, segmentation thématique manuelle
139
+ Ces fichiers au format xml peuvent s'ouvrir avec le logiciel transcriber.
140
+
141
+ = <Section> : Les bornes des segments thématiques se trouvent dans la balise <Section> grace aux attributs *startTime* et *endTime*. L'indice du thème associé est alors indiqué dans l'attribut *topic*.
142
+
143
+ = <Topics> : La liste des thèmes est indiqué en début de fichier dans les balises Topic. Concernant le corpus W07_14, ils sont pour la plupart simplement numéroté ainsi : "Sujet1", "Sujet2", "Sujet3"...
144
+ Certains sujets plus présents lors des périodes d'enregistrements ont eux été mis en avant. Par exemple pour le corpus W07_14 : "Intempérie1", "Intempérie2", "Sport", "Vacances", "Société", ... ou pour le corpus W05_15 : "Auschwitz", "Grêce1", "Grêce2"... Les numéros 1, 2, 3... ajoutés par exemples aux sujets "Intempéries", "Sport", "Grêce" ou "Société" correspondent simplement à une nouvelle occurence de ce sujet dans le même journal mais traité sous un angle différent. Il n'y a ainsi pas de lien direct entre "Sport1" d'un journal de TF1 et "Sport1" d'un journal de France 2 si ce n'est que les deux sujets traitent de sport, l'un pouvant donné les résultats de la ligue de foot et l'autre les médailles obtenues ce jour aux jeux olympiques.
145
+ Des segments de journaux ont été exclus de l'appariemment avec les articles de presse car ils ne traitaient pas d'un thème particulier mais annonçaient les titres du journal, correspondaient à un jingle, à une pub, etc. Ils sont notés grâce au mot clé *OUT* dans le nom du thème. On trouvera ainsi les topics: "OUT:generique", "OUT:jingle", "OUT:meteo", "OUT:pub"...
146
+
147
+ = <Turn> : Dans tous les cas, une brève description du segment est disponible dans la balise <Turn> à l'intérieur de chaque <Section>
148
+
149
+
150
+ == fichiers assgn, association manuelle entre articles et segments des vidéos
151
+ Les fichiers assgn (pour association google news) sont des fichiers textes qui indique l'association entre un segment d'un journal et les articles du jour (uniquement du même jour d'enregistrement du journal) qui portent sur le même thème selon notre annotatrice.
152
+ Ainsi sur chaque ligne sera indiqué les informations suivantes, séparées par des ; :
153
+ deb_seg:fin_seg;liste des identifiants des articles web associés; liste des identifiants des articles web potentiellement associés;liste des identifiants des articles évalués par notre annotatrice comme ne pouvant pas être associés au segment.
154
+
155
+ Pour avoir de plus amples renseignements sur la méthode d'association manuelle des articles et des segments, se référer à l'article [CamelinLREC18].
156
+
157
+
158
+
159
+ Contact point:
160
+ ==============
161
+ Nathalie Camelin
162
+ Maitre de conférence, Le Mans Université, LIUM
163
+ https://lium.univ-lemans.fr
164
+ mail:nathalie.camelin@univ-lemans.fr
165
+ tel: +33 1 43 13 38 58
166
+ fax: +33 1 43 13 33 30
data.zip ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:acecec06e08aaa76ef2c20e3b7fb91e2bff888302cf41c41c9240235e67597b8
3
+ size 46477068