File size: 108,827 Bytes
6fa4bc9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
1698
1699
1700
1701
1702
1703
1704
1705
1706
1707
1708
1709
1710
1711
1712
1713
1714
1715
1716
1717
1718
1719
1720
1721
1722
1723
1724
1725
1726
1727
1728
1729
1730
1731
1732
1733
1734
1735
1736
1737
1738
1739
1740
1741
1742
1743
1744
1745
1746
1747
1748
1749
1750
1751
1752
1753
1754
1755
1756
1757
1758
1759
1760
1761
1762
1763
1764
1765
1766
1767
1768
1769
1770
1771
1772
1773
1774
1775
1776
1777
1778
1779
1780
1781
1782
1783
1784
1785
1786
1787
1788
1789
1790
1791
1792
1793
1794
1795
1796
1797
1798
1799
1800
1801
1802
1803
1804
1805
1806
1807
1808
1809
1810
1811
1812
1813
1814
1815
1816
1817
1818
1819
1820
1821
1822
1823
1824
1825
1826
1827
1828
1829
1830
1831
1832
1833
1834
1835
1836
1837
1838
1839
1840
1841
1842
1843
1844
1845
1846
1847
1848
1849
1850
1851
1852
1853
1854
1855
1856
1857
1858
1859
1860
1861
1862
1863
1864
1865
1866
1867
1868
1869
1870
1871
1872
1873
1874
1875
1876
1877
1878
1879
1880
1881
1882
1883
1884
1885
1886
1887
1888
1889
1890
1891
1892
1893
1894
1895
1896
1897
1898
1899
1900
1901
1902
1903
1904
1905
1906
1907
1908
1909
1910
1911
1912
1913
1914
1915
1916
1917
1918
1919
1920
1921
1922
1923
1924
1925
{
    "paper_id": "F13-1035",
    "header": {
        "generated_with": "S2ORC 1.0.0",
        "date_generated": "2023-01-19T09:41:32.859781Z"
    },
    "title": "Pr\u00e9-segmentation de pages web et s\u00e9lection de documents pertinents en Questions-R\u00e9ponses",
    "authors": [
        {
            "first": "Nicolas",
            "middle": [],
            "last": "Foucault",
            "suffix": "",
            "affiliation": {},
            "email": ""
        },
        {
            "first": "Sophie",
            "middle": [],
            "last": "Rosset",
            "suffix": "",
            "affiliation": {},
            "email": ""
        },
        {
            "first": "Gilles",
            "middle": [],
            "last": "Adda",
            "suffix": "",
            "affiliation": {},
            "email": ""
        }
    ],
    "year": "",
    "venue": null,
    "identifiers": {},
    "abstract": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation de pages web en blocs de texte pour la s\u00e9lection de documents pertinents en questions-r\u00e9ponses. La segmentation des documents se fait pr\u00e9alablement \u00e0 leur indexation en plus du d\u00e9coupage des segments obtenus en passages au moment de l'extraction des r\u00e9ponses. L'extraction du contenu textuel des pages est faite \u00e0 l'aide d'un extracteur maison. Nous avons test\u00e9 deux m\u00e9thodes de segmentation. L'une segmente les textes extraits des pages web uniform\u00e9ment en blocs de taille fixe, l'autre les segmente par TextTiling (Hearst, 1997) en blocs th\u00e9matiques de taille variable. Les exp\u00e9riences men\u00e9es sur un corpus de 500K pages web et un jeu de 309 questions factuelles en fran\u00e7ais, issus du projet Quaero (Quintard et al., 2010), montrent que la m\u00e9thode employ\u00e9e tend \u00e0 am\u00e9liorer la pr\u00e9cision globale (top-10) du syst\u00e8me RITEL-QR (Rosset et al., 2008) dans sa t\u00e2che.",
    "pdf_parse": {
        "paper_id": "F13-1035",
        "_pdf_hash": "",
        "abstract": [
            {
                "text": "Dans cet article, nous pr\u00e9sentons une m\u00e9thode de segmentation de pages web en blocs de texte pour la s\u00e9lection de documents pertinents en questions-r\u00e9ponses. La segmentation des documents se fait pr\u00e9alablement \u00e0 leur indexation en plus du d\u00e9coupage des segments obtenus en passages au moment de l'extraction des r\u00e9ponses. L'extraction du contenu textuel des pages est faite \u00e0 l'aide d'un extracteur maison. Nous avons test\u00e9 deux m\u00e9thodes de segmentation. L'une segmente les textes extraits des pages web uniform\u00e9ment en blocs de taille fixe, l'autre les segmente par TextTiling (Hearst, 1997) en blocs th\u00e9matiques de taille variable. Les exp\u00e9riences men\u00e9es sur un corpus de 500K pages web et un jeu de 309 questions factuelles en fran\u00e7ais, issus du projet Quaero (Quintard et al., 2010), montrent que la m\u00e9thode employ\u00e9e tend \u00e0 am\u00e9liorer la pr\u00e9cision globale (top-10) du syst\u00e8me RITEL-QR (Rosset et al., 2008) dans sa t\u00e2che.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Abstract",
                "sec_num": null
            }
        ],
        "body_text": [
            {
                "text": "C'est un truisme de nos jours de dire qu'Internet est une mine d'information, de ressources et de savoirs qui peuvent sembler infinis. Ces informations sont utiles \u00e0 toute personne souhaitant s'informer ou se distraire, mais \u00e9galement aux chercheurs de nombreux domaines (biologie, sciences sociales, informatique, . . .) pour qui Internet est devenu un objet de recherches. Cependant, malgr\u00e9 les progr\u00e8s li\u00e9s, par exemple par le passage au WEB 2.0, on ne peut que constater que les informations sur le Web ne sont pas fiables, ni m\u00eame accessibles ais\u00e9ment.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Les syst\u00e8mes de r\u00e9ponses aux questions sont un moyen efficace de rendre cette information \u00e0 la fois plus accessible et plus fiable. Plus accessible, car ces syst\u00e8mes r\u00e9pondent de fa\u00e7on pr\u00e9cise, rapide et concise aux questions qui leur sont pos\u00e9es en langue naturelle (\u00e0 l'instar des moteurs de recherche usuels 1 ). Plus fiable, car les r\u00e9ponses sont valid\u00e9es par le syst\u00e8me (Pe\u00f1as et al., 2007) .",
                "cite_spans": [
                    {
                        "start": 311,
                        "end": 312,
                        "text": "1",
                        "ref_id": null
                    },
                    {
                        "start": 375,
                        "end": 395,
                        "text": "(Pe\u00f1as et al., 2007)",
                        "ref_id": "BIBREF22"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Une \u00e9tape primordiale (dans toutes les acceptions du terme) pour les syst\u00e8mes de questionsr\u00e9ponses (QR) est l'op\u00e9ration qui consiste \u00e0 extraire le contenu textuel des pages. Pour cela, il est n\u00e9cessaire (Grau, 2004) de nettoyer, restructurer et filtrer leur contenu (par exemple de corriger les balises HTML et les erreurs d'encodage, d'\u00e9liminer les codes javascript r\u00e9siduels et les spams).",
                "cite_spans": [
                    {
                        "start": 203,
                        "end": 215,
                        "text": "(Grau, 2004)",
                        "ref_id": "BIBREF12"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "La qualit\u00e9 (au sens de leur ad\u00e9quation \u00e0 la t\u00e2che QR) des textes obtenus d\u00e9pend fortement de l'extracteur employ\u00e9 (Baroni et al., 2008) et de la qualit\u00e9 intrins\u00e8que de l'information contenue dans les documents \u00e0 l'origine. Une t\u00e2che cruciale, mais souvent m\u00e9sestim\u00e9e, pour un syst\u00e8me QR est de pouvoir filtrer les documents dont la qualit\u00e9 intrins\u00e8que est faible, afin d'augmenter la pr\u00e9cision de la s\u00e9lection des meilleurs candidats lors de l'extraction de r\u00e9ponses.",
                "cite_spans": [
                    {
                        "start": 114,
                        "end": 135,
                        "text": "(Baroni et al., 2008)",
                        "ref_id": "BIBREF2"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Au cours de travaux pr\u00e9c\u00e9dents (Foucault et al., 2011) , nous avons mis en place une strat\u00e9gie de s\u00e9lection des documents pertinents pour un syst\u00e8me QR en fran\u00e7ais, en compl\u00e9ment de la s\u00e9lection de documents traditionnelle effectu\u00e9e par le moteur de recherche du syst\u00e8me. Cette s\u00e9lection repose sur une mesure de la qualit\u00e9 intrins\u00e8que des documents en utilisant un mod\u00e8le de langue, qui nous fournit a priori des mesures objectives sur le degr\u00e9 d'informativit\u00e9 d'un texte. Cette strat\u00e9gie permet d'\u00e9carter de la liste des candidats s\u00e9lectionn\u00e9s par le moteur de recherche du syst\u00e8me, les documents les plus bruit\u00e9s (c'est-\u00e0-dire de faible qualit\u00e9) pour la t\u00e2che QR. Ici, un texte est consid\u00e9r\u00e9 comme pertinent ou non dans sa globalit\u00e9.",
                "cite_spans": [
                    {
                        "start": 31,
                        "end": 54,
                        "text": "(Foucault et al., 2011)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "Il est de coutume en QR (Ligozat, 2006) de d\u00e9couper les documents en passage soit au moment de leur indexation, soit au cours des recherches. L'id\u00e9e est de r\u00e9duire la variabilit\u00e9 naturelle des documents en taille et en contenu. En effet, avec des segments textuels plus petits, on peut esp\u00e9rer une variabilit\u00e9 plus faible, et un contenu informationnel (corr\u00e9l\u00e9 au contenu linguistique, en particulier lexical et s\u00e9mantique) plus coh\u00e9rent, ce qui en retour doit permettre l'extraction de r\u00e9ponses plus pertinentes que celles issues de la globalit\u00e9 du texte. Cette strat\u00e9gie a fait ses preuves par le pass\u00e9 et des travaux r\u00e9cents autour du d\u00e9coupage de textes en passages (Tiedemann, 2007; Khalid et Verberne, 2008) l'ont consolid\u00e9e.",
                "cite_spans": [
                    {
                        "start": 24,
                        "end": 39,
                        "text": "(Ligozat, 2006)",
                        "ref_id": "BIBREF19"
                    },
                    {
                        "start": 670,
                        "end": 687,
                        "text": "(Tiedemann, 2007;",
                        "ref_id": "BIBREF27"
                    },
                    {
                        "start": 688,
                        "end": 713,
                        "text": "Khalid et Verberne, 2008)",
                        "ref_id": "BIBREF16"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "A notre connaissance, personne n'a tent\u00e9 de segmenter les documents pr\u00e9alablement \u00e0 leur indexation, tout en d\u00e9coupant les segments obtenus en passages au moment des recherches dans le but de r\u00e9duire plus fortement la variabilit\u00e9 des documents. Dans cet article, nous d\u00e9taillons plusieurs exp\u00e9riences visant \u00e0 mesurer l'impact d'une telle pr\u00e9-segmentation sur la t\u00e2che QR.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Introduction",
                "sec_num": "1"
            },
            {
                "text": "L'id\u00e9e de segmenter des documents textuels (article de journaux, livres, . . .) en blocs de texte est un axe de recherche activement explor\u00e9 dans les ann\u00e9es 90 en Recherche d'Information (RI) textuelle. Pour r\u00e9duire la variabilit\u00e9 linguistique d'un texte, une premi\u00e8re id\u00e9e, explor\u00e9e notamment par Salton (Salton et al., 1996) et Hearst (Hearst, 1997) consiste \u00e0 op\u00e9rer une segmentation en blocs th\u00e9matiques, les fronti\u00e8res de blocs \u00e9tant les endroits o\u00f9 on d\u00e9tecte un changement de th\u00e8me. Des calculs de proximit\u00e9 lexicale entre blocs adjacents permettent de r\u00e9organiser le texte d'origine en segments plus homog\u00e8nes (mais toujours de taille variable). Chez Salton, la proximit\u00e9 lexicale est obtenue \u00e0 l'aide de mesures de distances vectorielles, chaque bloc \u00e9tant repr\u00e9sent\u00e9 par un vecteur lexical. En fonction de valeurs seuils sur ces distances, des fusions entre paragraphes sont op\u00e9r\u00e9es. (Salton et al., 1996) effectue une fusion it\u00e9rative, chaque it\u00e9ration fusionnant les paragraphes jug\u00e9s similaires selon cette distance, le document \u00e9tant explor\u00e9 du d\u00e9but \u00e0 la fin, de gauche \u00e0 droite. L'it\u00e9ration s'arr\u00eate lorsque le texte ne contient plus que des blocs th\u00e9matiquement homog\u00e8nes. A partir de cette segmentation, Salton d\u00e9rive un graphe des relations th\u00e9matiques qu'entretiennent les blocs au sein du document. Dans le m\u00eame esprit, (Hearst, 1997) fusionne des blocs de textes entre eux, mais de mani\u00e8re plus fine. Elle se fonde sur une analyse plus linguistique du texte que Salton. En effet, l'algorithme de segmentation de Hearst (TextTiling) utilise la structure du discours (ici la th\u00e9orie des cha\u00eenes lexicales) et se fonde sur une segmentation en unit\u00e9s lexicales \u00e9l\u00e9mentaires (tokens). Ces tokens forment les unit\u00e9s de base pour la repr\u00e9sentation de chaque bloc textuel. Cet algorithme utilise une mesure de distance fond\u00e9e sur les statistiques de co-occurence. TextTiling ne fonctionne pas sur les paragraphes d'origine du texte contrairement \u00e0 l'algorithme de Salton, mais sur des blocs de pseudo-phrases construits sur la base de ces paragraphes.",
                "cite_spans": [
                    {
                        "start": 305,
                        "end": 326,
                        "text": "(Salton et al., 1996)",
                        "ref_id": "BIBREF26"
                    },
                    {
                        "start": 337,
                        "end": 351,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    },
                    {
                        "start": 894,
                        "end": 915,
                        "text": "(Salton et al., 1996)",
                        "ref_id": "BIBREF26"
                    },
                    {
                        "start": 1341,
                        "end": 1355,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes",
                "sec_num": "2"
            },
            {
                "text": "Plus r\u00e9cemment, des travaux dans le contexte de la RI dans des documents multim\u00e9dia ont propos\u00e9 une nouvelle m\u00e9thode d'indexation de pages web (Faessel, 2008) . Celle-ci s'appuie sur l'information des repr\u00e9sentations DOM 2 et CSS des pages web pour segmenter ces derni\u00e8res avant indexation ; (Bruno et al., 2009) d\u00e9montrent que l'utilisation de ces informations conduit \u00e0 une augmentation des performances d'un moteur de recherche dans sa t\u00e2che. D'autres travaux de segmentation pour la classification automatique de pages web en th\u00e8me (Qi et Davison, 2009) utilisent la repr\u00e9sentation DOM. Dans (Gupta et al., 2003) l'extraction du contenu textuel des pages se fait automatiquement \u00e0 l'aide de la structure des arbres DOM. Dans (Asirvatham et al., 2001 ), l'\u00e9chantillonnage des couleurs des images est utilis\u00e9 pour cat\u00e9goriser les pages qui les contiennent. Dans (Kovacevic1 et al., 2004) , pour la m\u00eame t\u00e2che, on utilise le rendu visuel. (Guo et al., 2007) utilise des indices visuels (le rendu des pages fourni par le moteur de Mozilla 3 ), g\u00e9om\u00e9triques (les coordonn\u00e9es des \u00e9l\u00e9ments de l'arbre DOM au sein du rendu des pages) et le style des pages (la r\u00e9p\u00e9tition d'information) pour d\u00e9finir les blocs d'information pertinents trouv\u00e9s dans les pages et les annoter s\u00e9mantiquement. Dans (Feng et al., 2005) , les auteurs \u00e9tudient l'impact d'indices visuels et structurels sur la segmentation en blocs au travers d'une t\u00e2che de cat\u00e9gorisation fonctionnelle (blocs de type menu, titre, contenu, etc.). Dans (Vadrevu et al., 2005) , les auteurs utilisent des crit\u00e8res de d\u00e9coupage fond\u00e9s sur l'homog\u00e9n\u00e9it\u00e9 locale du contenu informationnel des pages web (i.e. mod\u00e8le de segmentation bas\u00e9 sur le concept de path entropy) et d'indices visuels d\u00e9riv\u00e9s de leur repr\u00e9sentation DOM. Certains syst\u00e8mes comme VIPS (Cai et al., 2003) se fondent essentiellement sur ce type d'indices pour segmenter les pages.",
                "cite_spans": [
                    {
                        "start": 143,
                        "end": 158,
                        "text": "(Faessel, 2008)",
                        "ref_id": "BIBREF8"
                    },
                    {
                        "start": 292,
                        "end": 312,
                        "text": "(Bruno et al., 2009)",
                        "ref_id": "BIBREF4"
                    },
                    {
                        "start": 536,
                        "end": 557,
                        "text": "(Qi et Davison, 2009)",
                        "ref_id": "BIBREF23"
                    },
                    {
                        "start": 596,
                        "end": 616,
                        "text": "(Gupta et al., 2003)",
                        "ref_id": "BIBREF14"
                    },
                    {
                        "start": 729,
                        "end": 753,
                        "text": "(Asirvatham et al., 2001",
                        "ref_id": "BIBREF1"
                    },
                    {
                        "start": 864,
                        "end": 889,
                        "text": "(Kovacevic1 et al., 2004)",
                        "ref_id": "BIBREF18"
                    },
                    {
                        "start": 940,
                        "end": 958,
                        "text": "(Guo et al., 2007)",
                        "ref_id": "BIBREF13"
                    },
                    {
                        "start": 1289,
                        "end": 1308,
                        "text": "(Feng et al., 2005)",
                        "ref_id": "BIBREF10"
                    },
                    {
                        "start": 1507,
                        "end": 1529,
                        "text": "(Vadrevu et al., 2005)",
                        "ref_id": "BIBREF29"
                    },
                    {
                        "start": 1804,
                        "end": 1822,
                        "text": "(Cai et al., 2003)",
                        "ref_id": "BIBREF5"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes",
                "sec_num": "2"
            },
            {
                "text": "2. Document Object Model (DOM) www.w3.org/DOM 3. www.mozilla.org A notre connaissance, aucune tentative d'application de ces techniques comme proc\u00e9dure de segmentation de pages web n'a \u00e9t\u00e9 faite en QR. Nous avons choisi dans un premier temps d'utiliser un algorithme de premi\u00e8re g\u00e9n\u00e9ration : le TextTiling de Hearst. Ce dernier a montr\u00e9 son int\u00e9r\u00eat pour la s\u00e9lection de document pertinent en RI et se fonde sur une philosophie sousjacente commune \u00e0 notre domaine en TAL (Traitement Automatique des langues). De plus, on en trouve des impl\u00e9mentations en libre acc\u00e8s (contrairement \u00e0 certains des algorithmes \u00e9voqu\u00e9s plus haut). Par ailleurs, TextTiling pr\u00e9sente l'avantage de fournir une segmentation en blocs th\u00e9matiques qui pourrait \u00eatre mise \u00e0 contribution par la suite pour renforcer l'analyse s\u00e9mantique des documents par un syst\u00e8me QR. Dans la perspective de travaux futurs en segmentation de pages web autour de leur repr\u00e9sentation visuelle en QR, le TextTiling nous permettra de b\u00e9n\u00e9ficier d'une segmentation TAL de r\u00e9f\u00e9rence \u00e0 comparer \u00e0 des approches de RI non textuelles. C'est dans cette optique que le travail pr\u00e9sent\u00e9 dans cet article se positionne.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes",
                "sec_num": "2"
            },
            {
                "text": "Dans la section 3, nous pr\u00e9sentons notre m\u00e9thode de segmentation textuelle d\u00e9velopp\u00e9e sur la base du TextTiling de Hearst ; dans la section 4 nous \u00e9valuons cette m\u00e9thode sur la t\u00e2che Questions-R\u00e9ponses. Nous concluons et pr\u00e9sentons les perspectives de ce travail dans la section 5.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Travaux connexes",
                "sec_num": "2"
            },
            {
                "text": "Dans cette section, nous pr\u00e9sentons la m\u00e9thode de segmentation de pages web que nous avons mise en place pour la s\u00e9lection de documents pertinents en QR.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation textuelle de pages web",
                "sec_num": "3"
            },
            {
                "text": "La figure 1 pr\u00e9sente les \u00e9tapes-cl\u00e9s de la cha\u00eene de traitement qui correspond \u00e0 cette m\u00e9tode : de l'extraction du contenu textuel des pages \u00e0 l'obtention de blocs de textes normalis\u00e9s. Chaque \u00e9tape cl\u00e9 de cette cha\u00eene est d\u00e9crite successivement dans les sections 3.2, 3.3 et 3.4.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation textuelle de pages web",
                "sec_num": "3"
            },
            {
                "text": "FIGURE 1 -Notre proc\u00e9dure de segmentation de pages web en lien avec les (pr\u00e9-)traitements QR.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9sentation g\u00e9n\u00e9rale",
                "sec_num": "3.1"
            },
            {
                "text": "En th\u00e9orie, nous aurions d\u00fb inverser les \u00e9tapes de normalisation et de segmentation afin que la segmentation b\u00e9n\u00e9ficie des traitements de normalisation (voir section 3.4). Cependant, une telle inversion n\u00e9cessite certaines modifications de notre cha\u00eene de normalisation : en effet, cette derni\u00e8re supprime l'indentation des textes utile \u00e0 l'algorithme de TextTiling (voir section 3.3.1). Nous n'avons malheureusement pas eu le temps de mettre en place les modifications ad\u00e9quates.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9sentation g\u00e9n\u00e9rale",
                "sec_num": "3.1"
            },
            {
                "text": "Notre proc\u00e9dure d'extraction se d\u00e9roule en deux temps : pr\u00e9-traitement (section 3.2.1) puis repr\u00e9sentation et extraction du contenu textuel des pages web (section 3.2.2). La phase de pr\u00e9traitement des pages web est prise en charge par Kitten (Falco et al., 2012) , un outil de traitement de documents web d\u00e9velopp\u00e9 au LIMSI. La repr\u00e9sentation et l'extraction du contenu textuel des pages web se fait sur les versions des pages pr\u00e9-trait\u00e9es par Kitten \u00e0 l'aide du navigateur textuel de pages web Lynx 4 .",
                "cite_spans": [
                    {
                        "start": 242,
                        "end": 262,
                        "text": "(Falco et al., 2012)",
                        "ref_id": "BIBREF9"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Extraction",
                "sec_num": "3.2"
            },
            {
                "text": "Le pr\u00e9-traitement des documents web est r\u00e9alis\u00e9 \u00e0 l'aide de Kitten. Ce choix est motiv\u00e9 par les performances \u00e9tat de l'art que ce dernier a obtenu en qualit\u00e9 d'extracteur textuel (Falco et al., 2012) dans le cadre d'\u00e9valuations QR sur le syst\u00e8me Fidji .",
                "cite_spans": [
                    {
                        "start": 179,
                        "end": 199,
                        "text": "(Falco et al., 2012)",
                        "ref_id": "BIBREF9"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9-traitement des pages web",
                "sec_num": "3.2.1"
            },
            {
                "text": "Kitten est un outil d\u00e9velopp\u00e9 au LIMSI, d\u00e9di\u00e9 aux traitements et \u00e0 la normalisation de donn\u00e9es Html. Les pages web fournies en entr\u00e9e sont trait\u00e9es et de nouvelles pages web au format Xhtml valide W3C (encod\u00e9es en UTF8) sont produites en sortie. Ces pages sont bien form\u00e9es (correction de leur squelette Html via jTidy 5 ), sans erreurs d'encodage (correction de leur encodage via jChardet 6 et conversion des caract\u00e8res Html sp\u00e9ciaux dans une base Unicode via HTMLCleaner 7 ).",
                "cite_spans": [
                    {
                        "start": 390,
                        "end": 391,
                        "text": "6",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9-traitement des pages web",
                "sec_num": "3.2.1"
            },
            {
                "text": "Kitten produit des pages web exploitables en Extraction d'Information (EI) (Baroni et al., 2008) sans appliquer d'heuristiques de nettoyage pr\u00e9d\u00e9finies contrairement \u00e0 des outils classiques de nettoyage de contenu comme Boilerpipe (Kohlsch\u00fctter et al., 2010) ou Ncleaner (Evert, 2008 ",
                "cite_spans": [
                    {
                        "start": 75,
                        "end": 96,
                        "text": "(Baroni et al., 2008)",
                        "ref_id": "BIBREF2"
                    },
                    {
                        "start": 231,
                        "end": 258,
                        "text": "(Kohlsch\u00fctter et al., 2010)",
                        "ref_id": "BIBREF17"
                    },
                    {
                        "start": 271,
                        "end": 283,
                        "text": "(Evert, 2008",
                        "ref_id": "BIBREF7"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Pr\u00e9-traitement des pages web",
                "sec_num": "3.2.1"
            },
            {
                "text": "Nous avons utilis\u00e9 deux strat\u00e9gies de segmentation en blocs de texte. La premi\u00e8re strat\u00e9gie consiste \u00e0 segmenter les textes extraits par Lynx en blocs th\u00e9matiques de taille variable par l'algorithme de TextTiling de Hearst (Hearst, 1997) . La seconde strat\u00e9gie vise \u00e0 contr\u00f4ler la pr\u00e9c\u00e9dente et segmente les textes extraits par Lynx de fa\u00e7on uniforme en blocs de taille identique.",
                "cite_spans": [
                    {
                        "start": 223,
                        "end": 237,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Strat\u00e9gie de segmentation",
                "sec_num": "3.3"
            },
            {
                "text": "L'algorithme de TextTiling de Hearst (Hearst, 1997) segmente un texte en unit\u00e9s appel\u00e9es multi-paragraphes en fonction des th\u00e9matiques abord\u00e9es dans le texte. Traditionnellement, il est utilis\u00e9 pour d\u00e9tecter les th\u00e9matiques dans des textes fortement structur\u00e9s (e.g. articles de journaux, textes issus de livres . . .) et de grande taille (i.e. de plusieurs pages). Une des questions sous-jacente aux exp\u00e9riences que nous avons men\u00e9es \u00e9tait de savoir si cet algorithme pourrait \u00eatre utile pour la segmentation de pages web.",
                "cite_spans": [
                    {
                        "start": 37,
                        "end": 51,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation par TextTiling",
                "sec_num": "3.3.1"
            },
            {
                "text": "L'algorithme, pr\u00e9sent\u00e9 en d\u00e9tail dans (Hearst, 1997) ",
                "cite_spans": [
                    {
                        "start": 38,
                        "end": 52,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation par TextTiling",
                "sec_num": "3.3.1"
            },
            {
                "text": "Cette segmentation repr\u00e9sente la condition contr\u00f4le dans nos exp\u00e9riences. Elle se contente de segmenter chaque fichier texte qui lui est pr\u00e9sent\u00e9 en 8 blocs, c'est-\u00e0-dire la moyenne du nombre de blocs de segmentation obtenus par TextTiling sur notre corpus d'exp\u00e9rimentation au cours de tests pr\u00e9liminaires ; ceci revient \u00e0 fixer la taille moyenne des blocs en nombre de lignes (voir la section 4.3).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation uniforme",
                "sec_num": "3.3.2"
            },
            {
                "text": "La segmentation se fait selon un parcours lin\u00e9aire du texte d'entr\u00e9e, du d\u00e9but jusqu'\u00e0 la fin, les points de coupe sont d\u00e9termin\u00e9s \u00e0 l'avance selon le nombre total de lignes dans le texte et le nombre maximum de blocs fix\u00e9 en sortie (8). Les textes trop petits (ceux de moins de 8 lignes) ne sont pas segment\u00e9s et sont consid\u00e9r\u00e9s comme des blocs uniques.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Segmentation uniforme",
                "sec_num": "3.3.2"
            },
            {
                "text": "La normalisation est une \u00e9tape durant laquelle un texte brut est trait\u00e9 afin qu'une unit\u00e9 lexicale soit explicitement d\u00e9finie. Au cours de la normalisation, le texte est transform\u00e9 dans une forme o\u00f9 les mots et les nombres sont clairement d\u00e9limit\u00e9s, la ponctuation est s\u00e9par\u00e9e des mots, et des phrases ou pseudo-phrases sont clairement form\u00e9es.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Normalisation",
                "sec_num": "3.4"
            },
            {
                "text": "Notre normalisation passe par plusieurs \u00e9tapes : s\u00e9paration des mots et nombres de la ponctuation, reconstruction de la casse sur les mots, ajout de la ponctuation le cas \u00e9ch\u00e9ant et s\u00e9paration en phrases ou pseudo-phrases du texte d'entr\u00e9e. Elle s'appuie sur des lexiques, des dictionnaires de r\u00e8gles et des mod\u00e8les de langue (D\u00e9chelotte et al., 2007) .",
                "cite_spans": [
                    {
                        "start": 326,
                        "end": 351,
                        "text": "(D\u00e9chelotte et al., 2007)",
                        "ref_id": "BIBREF6"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Normalisation",
                "sec_num": "3.4"
            },
            {
                "text": "Les exp\u00e9riences pr\u00e9sent\u00e9es ont pour but d'examiner l'hypoth\u00e8se selon laquelle une fen\u00eatre d'analyse plus r\u00e9duite pour traiter les documents web permettrait une s\u00e9lection du syst\u00e8me QR plus pr\u00e9cise (c'est-\u00e0-dire obtenir des r\u00e9ponses plus pertinentes et en plus grand nombre). \u00c0 cette fin, nous r\u00e9alisons une segmentation avant l'indexation des documents en plus du d\u00e9coupage habituel en passages r\u00e9alis\u00e9 lors de l'extraction des r\u00e9ponses. La segmentation des documents est effectu\u00e9e par TextTiling ou uniform\u00e9ment par notre algorithme de segmentation contr\u00f4le.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
                "sec_num": "4.1"
            },
            {
                "text": "Les \u00e9valuations de l'impact de ces algorithmes de segmentation sur le syst\u00e8me RITEL-QR (voir section 4.2) sont pr\u00e9sent\u00e9es section 4.5 selon 3 conditions exp\u00e9rimentales :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
                "sec_num": "4.1"
            },
            {
                "text": "condition 1 : condition sans segmentation ou baseline (bsln) ; condition 2 : condition en segmentation par TextTiling (TT) ; condition 3 : condition en segmentation contr\u00f4le (ctrl).",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Hypoth\u00e8ses de travail et conditions exp\u00e9rimentales",
                "sec_num": "4.1"
            },
            {
                "text": "Le syst\u00e8me RITEL-QR que nous utilisons dans les exp\u00e9riences est compl\u00e8tement d\u00e9crit dans (Bernard et al., 2009) et . Il s'agit d'un syst\u00e8me qui a \u00e9t\u00e9 con\u00e7u \u00e0 l'origine comme un syst\u00e8me de dialogue (Toney et al., 2008 ",
                "cite_spans": [
                    {
                        "start": 89,
                        "end": 111,
                        "text": "(Bernard et al., 2009)",
                        "ref_id": "BIBREF3"
                    },
                    {
                        "start": 197,
                        "end": 216,
                        "text": "(Toney et al., 2008",
                        "ref_id": "BIBREF28"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Syst\u00e8me d'exp\u00e9rimentation : RITEL-QR",
                "sec_num": "4.2"
            },
            {
                "text": "Le corpus de pages web utilis\u00e9 dans nos exp\u00e9rimentations (ci-apr\u00e8s Q07fr) est compos\u00e9 de 499 734 pages web (5Gbytes) tout venant (i.e. journal, Wikip\u00e9dia, blog, site de vente, forum, etc.) et en fran\u00e7ais. Il nous est fourni par le projet Quaero 11 et sert de corpus standard dans le cadre des \u00e9valuations QR au sein du projet (Quintard et al., 2010) . Les questions de test et d'entra\u00eenement utilis\u00e9es (309 et 722 questions) proviennent du m\u00eame projet. Elles ont \u00e9t\u00e9 cr\u00e9\u00e9es \u00e0 partir de logs utilisateurs (Quintard et al., 2010) Le tableau 1 (a) pr\u00e9sente les r\u00e9sultats des traitements (en terme de nombre de fichiers trait\u00e9s) de chacune des \u00e9tapes de notre cha\u00eene de segmentation, ainsi que des \u00e9tapes de pr\u00e9-traitements QR (annotation et indexation), pour chacune des conditions d'exp\u00e9rimentations (Cond) \u00e0 partir de Q07fr. Ces r\u00e9sultats suivent le sch\u00e9ma de la figure 1. Chaque sortie d'une \u00e9tape d\u00e9pend du r\u00e9sultat qui pr\u00e9c\u00e8de pour une condition donn\u00e9e. On peut noter que le nombre de fichiers issus de la segmentation dans les conditions contr\u00f4le (ctrl) et TextTiling (TT) sont proches (environ 20K blocs de diff\u00e9rence). Les blocs index\u00e9s dans ces 2 conditions correspondent aux 484 060 textes index\u00e9s en condition baseline (bsln). La dur\u00e9e des traitements (parall\u00e8les/m\u00eames serveurs) dans ces conditions est respectivement de 2 \u00e0 5 fois plus longue qu'en condition sans segmentation.",
                "cite_spans": [
                    {
                        "start": 326,
                        "end": 349,
                        "text": "(Quintard et al., 2010)",
                        "ref_id": "BIBREF24"
                    },
                    {
                        "start": 504,
                        "end": 527,
                        "text": "(Quintard et al., 2010)",
                        "ref_id": "BIBREF24"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Corpus",
                "sec_num": "4.3"
            },
            {
                "text": "Le tableau 1 (b) pr\u00e9sente le nombre moyen de blocs (nbB) et de lignes par bloc (nbL) obtenus en conditions contr\u00f4le et TextTiling. Ces informations sont aussi donn\u00e9es pour la condition baseline \u00e0 titre indicatif (un bloc par fichier). On constate que l'algorithme de TextTiling et le contr\u00f4le se comportent de fa\u00e7on tr\u00e8s similaire : en moyenne, le nombre de blocs produits (ctrl : 8 et TT : 7,3) ainsi que leur taille (ctrl : 19,4 et TT : 20,9) sont semblables. Le TextTiling produit une l\u00e9g\u00e8re sur-segmentation : la d\u00e9viation standard est 2 fois plus \u00e9lev\u00e9e que celle du contr\u00f4le (ctrl) en nombre de lignes, le maximum de blocs pour un m\u00eame document \u00e9tant \u00e9galement plus grand.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Corpus",
                "sec_num": "4.3"
            },
            {
                "text": "11. http://www.quaero.org 12. http://www.exalead.com",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Corpus",
                "sec_num": "4.3"
            },
            {
                "text": "Dans ce travail, nous employons les m\u00e9triques habituellement utilis\u00e9es en QR :",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9triques d'\u00e9valuation",
                "sec_num": "4.4"
            },
            {
                "text": "-la pr\u00e9cision d\u00e9finie \u00e9quation (1), est le ratio entre le nombre de r\u00e9ponses correctes et le nombre total de questions. Si le syst\u00e8me est capable de fournir plusieurs r\u00e9ponses par question, on ne consid\u00e8re que la premi\u00e8re. CR i est le rang de la premi\u00e8re r\u00e9ponse correcte pour la question i. CR i prend pour valeur +\u221e si aucune r\u00e9ponse correcte n'a \u00e9t\u00e9 trouv\u00e9e. -Le top-n d\u00e9fini \u00e9quation (2), mesure la pr\u00e9cision selon les r\u00e9ponses correctes de rang 1 \u00e0 n.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9triques d'\u00e9valuation",
                "sec_num": "4.4"
            },
            {
                "text": "-Le Mean Reciprocal Rank (Moyenne des R\u00e9ciproques des Rangs ou MRR) d\u00e9fini \u00e9quation (3), permet de mesurer la qualit\u00e9 du classement des r\u00e9ponses (10 par question) effectu\u00e9 par le syst\u00e8me. La r\u00e9ponse correcte la mieux class\u00e9e est pond\u00e9r\u00e9e par l'inverse de son rang initial. Une absence de r\u00e9ponse correcte entra\u00eene une contribution nulle. Le score final correspond \u00e0 la moyenne des contributions.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9triques d'\u00e9valuation",
                "sec_num": "4.4"
            },
            {
                "text": "pr\u00e9cision = #CR i = 1 #questions (1) top-n = #CR i \u2264 n #questions (2) MRR = 1 CR i #questions (3)",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "M\u00e9triques d'\u00e9valuation",
                "sec_num": "4.4"
            },
            {
                "text": "Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans les parties (a) et (b) du tableau 2. On a utilis\u00e9 le test de McNemar (McNemar, 1947; Agresti, 1990) de R 13 pour juger de la significativit\u00e9 des r\u00e9sultats pr\u00e9sent\u00e9s tableau 2 (a). Les r\u00e9sultats du test sont donn\u00e9s tableau 3 14 .",
                "cite_spans": [
                    {
                        "start": 95,
                        "end": 118,
                        "text": "McNemar (McNemar, 1947;",
                        "ref_id": "BIBREF20"
                    },
                    {
                        "start": 119,
                        "end": 133,
                        "text": "Agresti, 1990)",
                        "ref_id": "BIBREF0"
                    },
                    {
                        "start": 139,
                        "end": 141,
                        "text": "13",
                        "ref_id": null
                    },
                    {
                        "start": 258,
                        "end": 260,
                        "text": "14",
                        "ref_id": null
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats",
                "sec_num": "4.5"
            },
            {
                "text": "On constate, tableau 2 (a), que les deux conditions de segmentation test\u00e9es sont proches de la condition baseline sugg\u00e9rant ainsi que la segmentation n'apporte pas de r\u00e9els b\u00e9n\u00e9fices \u00e0 notre syst\u00e8me QR. Les performances du syst\u00e8me sont tr\u00e8s proches en terme de pr\u00e9cision (0,6 point de diff\u00e9rence au plus entre bsln et TT Ainsi, on peut constater que l'hypoth\u00e8se H 0 selon laquelle la diff\u00e9rence observ\u00e9e entre les conditions bsln et ctrl n'est pas significative pour les performences QR en top-10, est \u00e0 peine rejet\u00e9e : la valeur de p obtenue dans ces conditions n'\u00e9tant pas inf\u00e9rieure mais tout juste align\u00e9e sur le seuil critique de significativit\u00e9 \u03b1 15 .",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats",
                "sec_num": "4.5"
            },
            {
                "text": "L'\u00e9tude du nombre total de bonnes r\u00e9ponses fournies par le syst\u00e8me selon leur position au sein du top-10 tableau 2 (b) (bsln : 178, TT : 183 et ctrl : 190) confirme cette tendance. On voit aussi dans ce tableau que les r\u00e9ponses apport\u00e9s par le syst\u00e8me en condition ctrl (jusqu'\u00e0 12 r\u00e9ponses supppl\u00e9mentaires, soit 3,9% de r\u00e9ponses en plus) se trouvent dans le top-3, l\u00e0 o\u00f9 la segmentation par TextTiling a tendance \u00e0 apporter de nouvelles r\u00e9ponses \u00e0 des rangs inf\u00e9rieurs.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats",
                "sec_num": "4.5"
            },
            {
                "text": "Nous avons pu constat\u00e9 que la segmentation des documents acc\u00e9l\u00e9rait les (pr\u00e9-)traitements QR. ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "R\u00e9sultats",
                "sec_num": "4.5"
            },
            {
                "text": "Au cours de travaux pr\u00e9c\u00e9dents (Foucault et al., 2011) nous avons mis en place une strat\u00e9gie de s\u00e9lection de documents pertinents pour un syst\u00e8me QR sur le fran\u00e7ais. Elle s'appuie sur un mod\u00e8le de langue qui fournit a priori une mesure objective du degr\u00e9 d'informativit\u00e9 d'un texte. Cette mesure de la qualit\u00e9 intrins\u00e8que des documents sert \u00e0 filtrer les documents non pertinents pour la t\u00e2che QR. L'effet d'un tel filtrage appliqu\u00e9 \u00e0 l'\u00e9chelle globale des documents, c'est av\u00e9r\u00e9 assez limit\u00e9. La variabilit\u00e9 naturelle des pages web en taille et en contenu (comme leur caract\u00e8re multi-th\u00e9matique) p\u00e9nalise vraisemblablement le syst\u00e8me dans sa t\u00e2che. Nous avons donc cherch\u00e9 \u00e0 d\u00e9velopper un syst\u00e8me de segmentation qui permette d'appliquer ce filtrage \u00e0 une \u00e9chelle non plus globale mais locale, sur des sous-parties de document. Le travail pr\u00e9sent\u00e9 dans cet article avait pour objectif de mettre un tel syst\u00e8me de segmentation en place.",
                "cite_spans": [
                    {
                        "start": 31,
                        "end": 54,
                        "text": "(Foucault et al., 2011)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "La question \u00e0 laquelle nous avons voulu r\u00e9pondre dans cette article est la suivante : segmenter les documents avant l'indexation, en plus du d\u00e9coupage habituel des documents en passages lors de l'extraction des r\u00e9ponses, am\u00e9liore-t-il les performances d'un syst\u00e8me de questions-r\u00e9ponses ?",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "Pour r\u00e9pondre \u00e0 cette question, nous avons test\u00e9 deux types de pr\u00e9-segmentation support\u00e9e par une extraction de contenu textuel de pages web maison. L'une segmente les textes extraits via un algorithme de texttiling classique (TextTiling) en blocs th\u00e9matiques de taille variable. L'autre les segmente uniform\u00e9ment en blocs de taille fixe, sans d\u00e9coupage th\u00e9matique.",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "Les r\u00e9sultats obtenus ne nous permettent pas de trancher nettement en faveur de l'une ou l'autre de ces approches de segmentation. Cependant, les tendances observ\u00e9es sugg\u00e8rent qu'une pr\u00e9segmentation des pages web comme nous l'avons d\u00e9finie peut servir un syst\u00e8me QR ; segmenter les documents avant l'indexation afin de renforcer l'effet du d\u00e9coupage de ces derniers en passages lors de l'extraction des r\u00e9ponses, am\u00e9liore la pr\u00e9cision du syst\u00e8me en terme de top-10 sans pour autant diminuer cette derni\u00e8re en terme de top-1. Cette tendance est plus marqu\u00e9e pour la segmentation uniforme de pages web que pour une segmentation plus \u00ab intelligente \u00bb \u00e0 l'aide de l'algorithme de TextTiling (sans analyse morphologique, le calcul des scores lexicaux se faisant par block comparison). Ce constat est contradictoire avec d'autres travaux, mais confirme certaines conclusions apport\u00e9es par Hearst dans ses travaux de segmentation th\u00e9matique de textes en Recherche d'Information (Hearst, 1997) . Il serait int\u00e9ressant de d\u00e9terminer les raisons amenant \u00e0 ce constat. Si la nature des documents (page web versus texte), est l'une des raisons qui pourrait l'expliquer, qu'en est-il par exemple de la longueur des documents et de la version du TextTiling que nous avons utilis\u00e9 dans nos exp\u00e9riences ?",
                "cite_spans": [
                    {
                        "start": 971,
                        "end": 985,
                        "text": "(Hearst, 1997)",
                        "ref_id": "BIBREF15"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "En perspective des travaux pr\u00e9sent\u00e9s dans cet article, nous projetons d'abord d'\u00e9tudier l'impact d'une pr\u00e9-segmentation uniforme des pages web sur notre strat\u00e9gie de s\u00e9lection de documents pertinents d\u00e9velopp\u00e9e dans (Foucault et al., 2011) . Concernant nos travaux de segmentation de pages web en QR \u00e0 partir de la repr\u00e9sentation visuelle des pages, nous comptons \u00e9valuer la pertinence de la proc\u00e9dure d'extraction mise en place au sein du syst\u00e8me de segmentation de pages web pr\u00e9sent\u00e9 dans cet article.",
                "cite_spans": [
                    {
                        "start": 216,
                        "end": 239,
                        "text": "(Foucault et al., 2011)",
                        "ref_id": "BIBREF11"
                    }
                ],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Conclusion et perspectives",
                "sec_num": "5"
            },
            {
                "text": "c ATALA",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "",
                "sec_num": null
            }
        ],
        "back_matter": [
            {
                "text": "Ce travail a \u00e9t\u00e9 financ\u00e9 partiellement par l'OSEO, dans le contexte du programme Quaero. TALN-R\u00c9CITAL 2013, 17-21 Juin, Les Sables d'Olonne ",
                "cite_spans": [],
                "ref_spans": [],
                "eq_spans": [],
                "section": "Remerciements",
                "sec_num": null
            }
        ],
        "bib_entries": {
            "BIBREF0": {
                "ref_id": "b0",
                "title": "Categorical data analysis",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Agresti",
                        "suffix": ""
                    }
                ],
                "year": 1990,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "AGRESTI, A. (1990). Categorical data analysis. New York : Wiley, London.",
                "links": null
            },
            "BIBREF1": {
                "ref_id": "b1",
                "title": "Web page classification based on document structure",
                "authors": [
                    {
                        "first": "A",
                        "middle": [
                            "P"
                        ],
                        "last": "Asirvatham",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [
                            "K"
                        ],
                        "last": "Ravi",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Prakash",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Kranthi",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Ravi",
                        "suffix": ""
                    }
                ],
                "year": 2001,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ASIRVATHAM, A. P., RAVI, K. K., PRAKASH, A., KRANTHI, A. et RAVI, K. (2001). Web page classification based on document structure.",
                "links": null
            },
            "BIBREF2": {
                "ref_id": "b2",
                "title": "Cleaneval : a competition for cleaning web pages",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Baroni",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Chantree",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Kilgarriff",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Sharoff",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "LREC. European Language Resources Association",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BARONI, M., CHANTREE, F., KILGARRIFF, A. et SHAROFF, S. (2008). Cleaneval : a competition for cleaning web pages. In LREC. European Language Resources Association.",
                "links": null
            },
            "BIBREF3": {
                "ref_id": "b3",
                "title": "The limsi participation in the qast 2009 track : experimentating on answer scoring",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Bernard",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Galibert",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Bilinski",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Adda",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "CLEF'09",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BERNARD, G., ROSSET, S., GALIBERT, O., BILINSKI, E. et ADDA, G. (2009). The limsi participation in the qast 2009 track : experimentating on answer scoring. In CLEF'09, Corfu, Grece.",
                "links": null
            },
            "BIBREF4": {
                "ref_id": "b4",
                "title": "Ir web search based on presentation and multimedia content",
                "authors": [
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Bruno",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Faessel",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Glotin",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [
                            "L"
                        ],
                        "last": "Ma\u00eetre",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Michel",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "Actes des 25emes Journees Bases de Donnees Avancees",
                "volume": "",
                "issue": "",
                "pages": "408--407",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "BRUNO, E., FAESSEL, N., GLOTIN, H., MA\u00ceTRE, J. L. et MICHEL., S. (2009). Ir web search based on presentation and multimedia content. In Actes des 25emes Journees Bases de Donnees Avancees (BDA 2009), pages 408-407.",
                "links": null
            },
            "BIBREF5": {
                "ref_id": "b5",
                "title": "VIPS : a vision-based page segmentation algorithm",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Cai",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Yu",
                        "suffix": ""
                    },
                    {
                        "first": "J.-R",
                        "middle": [],
                        "last": "Wen",
                        "suffix": ""
                    },
                    {
                        "first": "W.-Y",
                        "middle": [],
                        "last": "Ma",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "CAI, D., YU, S., WEN, J.-R. et MA, W.-Y. (2003). VIPS : a vision-based page segmentation algorithm. Rapport technique, Microsoft (MSR-TR-2003-79).",
                "links": null
            },
            "BIBREF6": {
                "ref_id": "b6",
                "title": "Improved machine translation of speech-to-text outputs",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "D\u00e9chelotte",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Schwenk",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Adda",
                        "suffix": ""
                    },
                    {
                        "first": "J.-L",
                        "middle": [],
                        "last": "Gauvain",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Interspeech'07",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "D\u00c9CHELOTTE, D., SCHWENK, H., ADDA, G. et GAUVAIN, J.-L. (2007). Improved machine translation of speech-to-text outputs. In Interspeech'07, Antwerp. Belgium.",
                "links": null
            },
            "BIBREF7": {
                "ref_id": "b7",
                "title": "A lightweight and efficient tool for cleaning web pages",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Evert",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "LREC. European Language Resources Association",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "EVERT, S. (2008). A lightweight and efficient tool for cleaning web pages. In LREC. European Language Resources Association.",
                "links": null
            },
            "BIBREF8": {
                "ref_id": "b8",
                "title": "Indexation de blocs extraits de pages web en utilisant le rendu visuel",
                "authors": [
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Faessel",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "CORIA",
                "volume": "",
                "issue": "",
                "pages": "393--400",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FAESSEL, N. (2008). Indexation de blocs extraits de pages web en utilisant le rendu visuel. In CORIA, pages 393-400. Universit\u00e9 de Renne 1.",
                "links": null
            },
            "BIBREF9": {
                "ref_id": "b9",
                "title": "Kitten : a tool for normalizing html and extracting its textual content",
                "authors": [
                    {
                        "first": "M.-H",
                        "middle": [],
                        "last": "Falco",
                        "suffix": ""
                    },
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Moriceau",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [
                            ";"
                        ],
                        "last": "Vilnat",
                        "suffix": ""
                    },
                    {
                        "first": "N",
                        "middle": [
                            "C C"
                        ],
                        "last": "Choukri",
                        "suffix": ""
                    },
                    {
                        "first": "K",
                        "middle": [],
                        "last": "Declerck",
                        "suffix": ""
                    },
                    {
                        "first": "T",
                        "middle": [],
                        "last": "Dogan",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [
                            "U"
                        ],
                        "last": "Maegaard",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Mariani",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Odijk",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Piperidis",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "",
                        "suffix": ""
                    }
                ],
                "year": 2012,
                "venue": "\u00e9diteurs : Proceedings of the Eight International Conference on Language Resources and Evaluation (LREC'12)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FALCO, M.-H., MORICEAU, V. et VILNAT, A. (2012). Kitten : a tool for normalizing html and extracting its textual content. In CHAIR), N. C. C., CHOUKRI, K., DECLERCK, T., DOGAN, M. U., MAEGAARD, B., MARIANI, J., ODIJK, J. et PIPERIDIS, S., \u00e9diteurs : Proceedings of the Eight Interna- tional Conference on Language Resources and Evaluation (LREC'12), Istanbul, Turkey. European Language Resources Association (ELRA).",
                "links": null
            },
            "BIBREF10": {
                "ref_id": "b10",
                "title": "A learning approach to discovering web page semantic structures",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Feng",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Haffner",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Gilbert",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "Proceedings of the Eighth International Conference on Document Analysis and Recognition, ICDAR'05",
                "volume": "",
                "issue": "",
                "pages": "1055--1059",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FENG, J., HAFFNER, P. et GILBERT, M. (2005). A learning approach to discovering web page semantic structures. In Proceedings of the Eighth International Conference on Document Analysis and Recognition, ICDAR'05, pages 1055-1059, Washington, DC, USA. IEEE Computer Society.",
                "links": null
            },
            "BIBREF11": {
                "ref_id": "b11",
                "title": "Language modeling for document selection in question answering",
                "authors": [
                    {
                        "first": "N",
                        "middle": [],
                        "last": "Foucault",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Adda",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    }
                ],
                "year": 2011,
                "venue": "RANLP'11",
                "volume": "",
                "issue": "",
                "pages": "716--720",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "FOUCAULT, N., ADDA, G. et ROSSET, S. (2011). Language modeling for document selection in question answering. In RANLP'11, pages 716-720, Hissar, Bulgaria.",
                "links": null
            },
            "BIBREF12": {
                "ref_id": "b12",
                "title": "Approches et m\u00e9thodologies pour la r\u00e9ponse automatique \u00e0 des questions adapat\u00e9es \u00e0 un cadre int\u00e9ractif en domaine ouvert",
                "authors": [
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Galibert",
                        "suffix": ""
                    },
                    {
                        "first": "",
                        "middle": [],
                        "last": "Limsi/Cnrs",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Grau",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "Visualisation d'Information et Interaction, chapitre 10 : Syst\u00e8mes de question-r\u00e9ponse",
                "volume": "",
                "issue": "",
                "pages": "189--218",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GALIBERT, O. (2009). Approches et m\u00e9thodologies pour la r\u00e9ponse automatique \u00e0 des questions adapat\u00e9es \u00e0 un cadre int\u00e9ractif en domaine ouvert. Th\u00e8se de doctorat, Paris-Sud11, LIMSI/CNRS. GRAU, B. (2004). M\u00e9thodes Avanc\u00e9es pour les Syst\u00e8mes de Recherche d'Informations. In Visualisation d'Information et Interaction, chapitre 10 : Syst\u00e8mes de question-r\u00e9ponse, pages 189-218. Herm\u00e8s. Dir. M. Ihadjadene.",
                "links": null
            },
            "BIBREF13": {
                "ref_id": "b13",
                "title": "A general approach for partitioning web page content based on geometric and style information",
                "authors": [
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Guo",
                        "suffix": ""
                    },
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Mahmud",
                        "suffix": ""
                    },
                    {
                        "first": "Y",
                        "middle": [],
                        "last": "Borodin",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Stent",
                        "suffix": ""
                    },
                    {
                        "first": "I",
                        "middle": [],
                        "last": "Ramakrishnan",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of the Ninth International Conference on Document Analysis and Recognition",
                "volume": "02",
                "issue": "",
                "pages": "929--933",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GUO, H., MAHMUD, J., BORODIN, Y., STENT, A. et RAMAKRISHNAN, I. (2007). A general approach for partitioning web page content based on geometric and style information. In Proceedings of the Ninth International Conference on Document Analysis and Recognition -Volume 02, ICDAR '07, pages 929-933, Washington, DC, USA. IEEE Computer Society.",
                "links": null
            },
            "BIBREF14": {
                "ref_id": "b14",
                "title": "Dom-based content extraction of html documents",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Gupta",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Kaiser",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Neistadt",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Grimm",
                        "suffix": ""
                    }
                ],
                "year": 2003,
                "venue": "Proceedings of the 12th international conference on World Wide Web, WWW '03",
                "volume": "",
                "issue": "",
                "pages": "207--214",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "GUPTA, S., KAISER, G., NEISTADT, D. et GRIMM, P. (2003). Dom-based content extraction of html documents. In Proceedings of the 12th international conference on World Wide Web, WWW '03, pages 207-214, New York, NY, USA. ACM.",
                "links": null
            },
            "BIBREF15": {
                "ref_id": "b15",
                "title": "Texttiling : Segmenting text into multi-paragraph subtopic passages",
                "authors": [
                    {
                        "first": "M",
                        "middle": [
                            "A"
                        ],
                        "last": "Hearst",
                        "suffix": ""
                    }
                ],
                "year": 1997,
                "venue": "Computational Linguistics",
                "volume": "23",
                "issue": "",
                "pages": "33--64",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "HEARST, M. A. (1997). Texttiling : Segmenting text into multi-paragraph subtopic passages. Computational Linguistics, 23:33-64.",
                "links": null
            },
            "BIBREF16": {
                "ref_id": "b16",
                "title": "Passage retrieval for question answering using sliding windows",
                "authors": [
                    {
                        "first": "M",
                        "middle": [
                            "A"
                        ],
                        "last": "Khalid",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Verberne",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Proceedings of COLING 2008, Workshop IR4QA",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KHALID, M. A. et VERBERNE, S. (2008). Passage retrieval for question answering using sliding windows. In In Proceedings of COLING 2008, Workshop IR4QA.",
                "links": null
            },
            "BIBREF17": {
                "ref_id": "b17",
                "title": "Boilerplate detection using shallow text features",
                "authors": [
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Kohlsch\u00fctter",
                        "suffix": ""
                    },
                    {
                        "first": "P",
                        "middle": [],
                        "last": "Fankhauser",
                        "suffix": ""
                    },
                    {
                        "first": "W",
                        "middle": [],
                        "last": "Nejdl",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Proc. of 3rd ACM International Conference on Web Search and Data Mining",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOHLSCH\u00dcTTER, C., FANKHAUSER, P. et NEJDL, W. (2010). Boilerplate detection using shallow text features. In Proc. of 3rd ACM International Conference on Web Search and Data Mining New York City, NY USA (WSDM 2010).",
                "links": null
            },
            "BIBREF18": {
                "ref_id": "b18",
                "title": "Visual adjacency multigraphs . a novel approach for a web page classification",
                "authors": [
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Kovacevic1",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Diligenti",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Gori",
                        "suffix": ""
                    },
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Milutinovic1",
                        "suffix": ""
                    }
                ],
                "year": 2004,
                "venue": "Proceedings of the Workshop on Statistical Approaches to Web Mining (SAWM)",
                "volume": "",
                "issue": "",
                "pages": "38--49",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "KOVACEVIC1, M., DILIGENTI, M., GORI, M. et MILUTINOVIC1, V. (2004). Visual adjacency mul- tigraphs . a novel approach for a web page classification. In Proceedings of the Workshop on Statistical Approaches to Web Mining (SAWM), pages 38-49.",
                "links": null
            },
            "BIBREF19": {
                "ref_id": "b19",
                "title": "Exploitation et fusion de connaissances locales pour la recherche d'informations pre\u0107ises",
                "authors": [
                    {
                        "first": "A",
                        "middle": [
                            "L"
                        ],
                        "last": "Ligozat",
                        "suffix": ""
                    }
                ],
                "year": 2006,
                "venue": "",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "LIGOZAT, A. L. (2006). Exploitation et fusion de connaissances locales pour la recherche d'informa- tions pre\u0107ises. Th\u00e8se de doctorat, Paris-Sud11, LIMSI/CNRS.",
                "links": null
            },
            "BIBREF20": {
                "ref_id": "b20",
                "title": "Note on the sampling error of the difference between correlated proportions or percentages",
                "authors": [
                    {
                        "first": "Q",
                        "middle": [],
                        "last": "Mcnemar",
                        "suffix": ""
                    }
                ],
                "year": 1947,
                "venue": "Psychometrika",
                "volume": "12",
                "issue": "2",
                "pages": "153--157",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MCNEMAR, Q. (1947). Note on the sampling error of the difference between correlated propor- tions or percentages. Psychometrika, 12(2):153-157.",
                "links": null
            },
            "BIBREF21": {
                "ref_id": "b21",
                "title": "Fidji : using syntax for validating answers in multiple documents",
                "authors": [
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Moriceau",
                        "suffix": ""
                    },
                    {
                        "first": "X",
                        "middle": [],
                        "last": "Tannier",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "Information Retrieval",
                "volume": "13",
                "issue": "5",
                "pages": "507--533",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "MORICEAU, V. et TANNIER, X. (2010). Fidji : using syntax for validating answers in multiple documents. Information Retrieval, 13(5):507-533.",
                "links": null
            },
            "BIBREF22": {
                "ref_id": "b22",
                "title": "Overview of the answer validation exercise",
                "authors": [
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Pe\u00f1as",
                        "suffix": ""
                    },
                    {
                        "first": "\u00c1",
                        "middle": [],
                        "last": "Rodrigo",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Verdejo",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "CLEF",
                "volume": "",
                "issue": "",
                "pages": "237--248",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "PE\u00d1AS, A., RODRIGO, \u00c1. et VERDEJO, F. (2007). Overview of the answer validation exercise 2007. In CLEF, pages 237-248.",
                "links": null
            },
            "BIBREF23": {
                "ref_id": "b23",
                "title": "Web page classification : Features and algorithms",
                "authors": [
                    {
                        "first": "X",
                        "middle": [],
                        "last": "Qi",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [
                            "D"
                        ],
                        "last": "Davison",
                        "suffix": ""
                    }
                ],
                "year": 2009,
                "venue": "ACM Computing Surveys",
                "volume": "41",
                "issue": "2",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "QI, X. et DAVISON, B. D. (2009). Web page classification : Features and algorithms. ACM Computing Surveys, 41(2):12 :1-12 :31.",
                "links": null
            },
            "BIBREF24": {
                "ref_id": "b24",
                "title": "Question answering on web data : The QA evaluation in Quaero",
                "authors": [
                    {
                        "first": "L",
                        "middle": [],
                        "last": "Quintard",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Galibert",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Adda",
                        "suffix": ""
                    },
                    {
                        "first": "B",
                        "middle": [],
                        "last": "Grau",
                        "suffix": ""
                    },
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Laurent",
                        "suffix": ""
                    },
                    {
                        "first": "V",
                        "middle": [],
                        "last": "Moriceau",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    },
                    {
                        "first": "X",
                        "middle": [],
                        "last": "Tannier",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Vilnat",
                        "suffix": ""
                    }
                ],
                "year": 2010,
                "venue": "LREC'10",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "QUINTARD, L., GALIBERT, O., ADDA, G., GRAU, B., LAURENT, D., MORICEAU, V., ROSSET, S., TANNIER, X. et VILNAT, A. (2010). Question answering on web data : The QA evaluation in Quaero. In LREC'10, Valletta, Malta.",
                "links": null
            },
            "BIBREF25": {
                "ref_id": "b25",
                "title": "The limsi participation to the qast track",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Galibert",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Bernard",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [],
                        "last": "Bilinski",
                        "suffix": ""
                    },
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Adda",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "Working Notes of CLEF 2008 Workshop",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "ROSSET, S., GALIBERT, O., BERNARD, G., BILINSKI, E. et ADDA, G. (2008). The limsi participation to the qast track. In Working Notes of CLEF 2008 Workshop, Aarhus, Denmark.",
                "links": null
            },
            "BIBREF26": {
                "ref_id": "b26",
                "title": "Automatic text decomposition using text segments and text themes",
                "authors": [
                    {
                        "first": "G",
                        "middle": [],
                        "last": "Salton",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Singhal",
                        "suffix": ""
                    },
                    {
                        "first": "C",
                        "middle": [],
                        "last": "Buckley",
                        "suffix": ""
                    },
                    {
                        "first": "M",
                        "middle": [],
                        "last": "Mitra",
                        "suffix": ""
                    }
                ],
                "year": 1996,
                "venue": "Proceedings of the the seventh ACM conference on Hypertext, HYPERTEXT '96",
                "volume": "",
                "issue": "",
                "pages": "53--65",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "SALTON, G., SINGHAL, A., BUCKLEY, C. et MITRA, M. (1996). Automatic text decomposition using text segments and text themes. In Proceedings of the the seventh ACM conference on Hypertext, HYPERTEXT '96, pages 53-65, New York, NY, USA. ACM.",
                "links": null
            },
            "BIBREF27": {
                "ref_id": "b27",
                "title": "Comparing document segmentation strategies for passage retrieval in question answering",
                "authors": [
                    {
                        "first": "J",
                        "middle": [],
                        "last": "Tiedemann",
                        "suffix": ""
                    }
                ],
                "year": 2007,
                "venue": "Proceedings of the Conference on Recent Advances in Natural Language Processing (RANLP'07)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "TIEDEMANN, J. (2007). Comparing document segmentation strategies for passage retrieval in question answering. In Proceedings of the Conference on Recent Advances in Natural Language Processing (RANLP'07), Borovets, Bulgaria.",
                "links": null
            },
            "BIBREF28": {
                "ref_id": "b28",
                "title": "An Evaluation of Spoken and Textual Interaction in the RITEL Interactive Question Answering System",
                "authors": [
                    {
                        "first": "D",
                        "middle": [],
                        "last": "Toney",
                        "suffix": ""
                    },
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Rosset",
                        "suffix": ""
                    },
                    {
                        "first": "A",
                        "middle": [],
                        "last": "Max",
                        "suffix": ""
                    },
                    {
                        "first": "O",
                        "middle": [],
                        "last": "Galibert",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [
                            ";"
                        ],
                        "last": "Bilinski",
                        "suffix": ""
                    },
                    {
                        "first": "E",
                        "middle": [
                            "L R A"
                        ],
                        "last": "Elra)",
                        "suffix": ""
                    }
                ],
                "year": 2008,
                "venue": "\u00e9diteur : Proceedings of the Sixth International Language Resources and Evaluation (LREC'08)",
                "volume": "",
                "issue": "",
                "pages": "",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "TONEY, D., ROSSET, S., MAX, A., GALIBERT, O. et BILINSKI, E. (2008). An Evaluation of Spoken and Textual Interaction in the RITEL Interactive Question Answering System. In (ELRA), E. L. R. A., \u00e9diteur : Proceedings of the Sixth International Language Resources and Evaluation (LREC'08), Marrakech, Morocco.",
                "links": null
            },
            "BIBREF29": {
                "ref_id": "b29",
                "title": "Semantic partitioning of web pages",
                "authors": [
                    {
                        "first": "S",
                        "middle": [],
                        "last": "Vadrevu",
                        "suffix": ""
                    },
                    {
                        "first": "F",
                        "middle": [],
                        "last": "Gelgi",
                        "suffix": ""
                    },
                    {
                        "first": "H",
                        "middle": [],
                        "last": "Davulcu",
                        "suffix": ""
                    }
                ],
                "year": 2005,
                "venue": "Proceedings of the 6th international conference on Web Information Systems Engineering, WISE'05",
                "volume": "",
                "issue": "",
                "pages": "107--118",
                "other_ids": {},
                "num": null,
                "urls": [],
                "raw_text": "VADREVU, S., GELGI, F. et DAVULCU, H. (2005). Semantic partitioning of web pages. In Proceedings of the 6th international conference on Web Information Systems Engineering, WISE'05, pages 107-118, Berlin, Heidelberg. Springer-Verlag.",
                "links": null
            }
        },
        "ref_entries": {
            "FIGREF0": {
                "num": null,
                "uris": null,
                "text": "1 -(a) Nombre de blocs par condition exp\u00e9rimentale (Cond) selon leur type : segment\u00e9 (ctrl et TT) ou non (bsln), selon les \u00e9tapes n\u00e9cessaires \u00e0 les cr\u00e9er (Etape) et la dur\u00e9e totale de traitement correspondant. (b) Statistiques (Stat) du nombre de blocs (nbB) et de lignes (nbL) moyens (Mean), minimum (Min), maximum (Max) et d\u00e9viation standard (Std) des index (Index) relatifs \u00e0 chaque condition exp\u00e9rimentale.",
                "type_str": "figure"
            },
            "TABREF0": {
                "content": "<table/>",
                "num": null,
                "text": ") ; par exemple Ncleaner pr\u00e9serve pour l'essentiel le texte des balises <title>, <h1>, <h2>, <h3>, <div> et <p> contenus dans le corps des pages, toute autre balise \u00e9tant jug\u00e9e non pertinente pour l'extraction. Par ailleurs, Kitten dispose de nombreuses fonctions et filtres configurables qui le rendent flexible. Ainsi, il est possible de conserver le contenu des attributs <title> associ\u00e9 \u00e0 un lien tout en supprimant le lien ou au contraire conserver ce lien tout en supprimant les attributs <title> qui lui sont associ\u00e9s.Kitten  se rapproche donc plut\u00f4t d'outils de d\u00e9veloppement populaires dans le domaine de l'EI web comme la librairie Python Beautiful Soup 8 et le framework de crawling web Scrapy 9 . Kitten dispose de son propre module d'extraction de pages web et d'un syst\u00e8me d'extraction back-off bas\u00e9 sur Lynx. Celui-ci sert d'extracteur principal dans notre syst\u00e8me de segmentation. La repr\u00e9sentation des pages utilis\u00e9e par notre moteur d'extraction se fait gr\u00e2ce \u00e0 Lynx. Ce dernier est un navigateur d'informations distribu\u00e9es \u00e0 port\u00e9e g\u00e9n\u00e9rale pour Internet. Il permet de naviguer sur le Web depuis une console, en mode textuel uniquement. C'est un outil libre int\u00e9gr\u00e9 automatiquement dans la plupart des distributions Linux grand public comme Ubuntu, qui int\u00e8gre de nombreuses fonctionnalit\u00e9s web, dont l'extraction du contenu textuel de pages web. Nous avons retenu Lynx pour deux raisons. La premi\u00e8re raison est qu'il fournit une extraction textuelle de pages web qui refl\u00e8te leur rendu visuel. La seconde raison est que Lynx peut fournir une d\u00e9composition lin\u00e9aire du contenu des pages web en blocs de texte, adapt\u00e9e \u00e0 la plupart des traitements d'analyses de documents en QR. Si Lynx produit des extractions textuelles fid\u00e8les au rendu visuel des pages web, l'agencement des blocs d'extraction diff\u00e8re de celui observ\u00e9 dans un navigateur web classique du type Firefox 10 . En effet, Lynx effectue une travers\u00e9e gauche-droite descendante des pages web. En cons\u00e9quence, les blocs d'information textuelle rencontr\u00e9s le long du parcours sont mis bout \u00e0 bout dans le fichier d'extraction r\u00e9sultant. Ainsi, on trouve souvent dans les extractions textuelles de Lynx la suite de blocs suivant (donn\u00e9s ici selon leur contenu visuel) : bandeau, menus, colonne gauche, bloc de contenu principal, colonne droite, puis pied de page. On peut aussi trouver des agencements moins st\u00e9r\u00e9otypiques selon le design des pages et trouver des s\u00e9ries de blocs de contenu principal",
                "html": null,
                "type_str": "table"
            },
            "TABREF1": {
                "content": "<table/>",
                "num": null,
                "text": "La proc\u00e9dure de segmentation d\u00e9marre par une \u00e9tape de tokenization du texte qui lui est fourni en entr\u00e9e. Les mots qui sont des stopwords ne sont pas tokenis\u00e9s et sont \u00e9cart\u00e9s. Les autres subissent une \u00e9tape de stemming bas\u00e9e sur une fonction d'analyse morphologique. Le texte est tokeniz\u00e9 en pseudo-phrases de longueur pr\u00e9d\u00e9finie cens\u00e9e repr\u00e9senter la longueur moyenne d'un paragraphe (20 pseudo-phrases par d\u00e9faut). Les paragraphes d'origine du texte servent de point d'ancrage pour la tokenization, qui elle-m\u00eame d\u00e9pend de l'indentation dans le texte. L'algorithme \u00e9value ensuite la proximit\u00e9 lexicale qui existe entre toutes les paires de blocs adjacents possibles, et fournit un score fond\u00e9 sur des co-occurences lexicales de tokens qui mesure l'\u00e9cart entre deux blocs. Les blocs sont constitu\u00e9s des pseudo-phrases obtenues lors de la phase de tokenization. La d\u00e9termination des scores lexicaux varie selon la strat\u00e9gie utilis\u00e9e. TextTiling dispose de 2 strat\u00e9gies de comparaison de blocs diff\u00e9rentes. La premi\u00e8re (block comparison), compare deux blocs adjacents de texte et calcule leur \u00e9cart sur la base du nombre de tokens qu'ils ont en commun. La seconde m\u00e9thode (vocabulary introduction) \u00e9value ce m\u00eame \u00e9cart sur la base des tokens issus des pseudo-phrases qui bordent la fronti\u00e8re entre deux blocs.",
                "html": null,
                "type_str": "table"
            },
            "TABREF2": {
                "content": "<table/>",
                "num": null,
                "text": "). D'un point de vue g\u00e9n\u00e9ral, on peut dire que le syst\u00e8me s'appuie sur une analyse multi-niveaux, appliqu\u00e9e sur les questions et sur les documents. Les documents sont totalement analys\u00e9s et index\u00e9s d'apr\u00e8s les r\u00e9sultats d'analyse. La recherche est effectu\u00e9e dans l'index complet des documents. L'analyse permet de rep\u00e9rer et typer des \u00e9l\u00e9ments pertinents d'information qui peuvent prendre la forme d'entit\u00e9s nomm\u00e9es, complexes et structur\u00e9es, de chunks morpho-syntaxiques, d'actes de dialogue et de marqueurs th\u00e9matiques.La premi\u00e8re \u00e9tape de RITEL-QR consiste \u00e0 cr\u00e9er un descripteur de recherche (DDR) qui contient toutes les informations utiles pour la recherche de documents, l'extraction de passages pertinents et l'extraction de r\u00e9ponses. Ces informations sont les \u00e9l\u00e9ments de la question, leurs transformations possibles (d\u00e9rivations morphologiques, synonymes etc. et les poids associ\u00e9s), et les types attendus de la r\u00e9ponse (avec les poids associ\u00e9s). Ces types sont le plus souvent des types d'entit\u00e9s nomm\u00e9es (personne, lieu . . .) et refl\u00e8tent la taxonomie d'entit\u00e9s utilis\u00e9e au moment de l'analyse.La s\u00e9lection des documents consiste \u00e0 fournir, \u00e0 partir de l'index, les n documents les plus pertinents, c'est-\u00e0-dire ceux contenant le plus d'informations pr\u00e9sentes dans le DDR. En fonction de ces informations et de leur densit\u00e9, les documents obtiennent un score. Ensuite, des passages",
                "html": null,
                "type_str": "table"
            },
            "TABREF3": {
                "content": "<table><tr><td/><td>Etape/Cond</td><td/><td>bsln</td><td/><td>ctrl</td><td/><td>TT</td></tr><tr><td/><td>extraction</td><td colspan=\"2\">497 228</td><td colspan=\"2\">497 228</td><td colspan=\"2\">497 228</td></tr><tr><td/><td>segmentation</td><td/><td>-</td><td colspan=\"2\">3 686 749</td><td colspan=\"2\">3 857 585</td></tr><tr><td>(a)</td><td>normalisation</td><td colspan=\"2\">485 037</td><td colspan=\"2\">3 660 264</td><td colspan=\"2\">3 686 875</td></tr><tr><td/><td>annotation</td><td colspan=\"2\">485 037</td><td colspan=\"2\">3 660 264</td><td colspan=\"2\">3 686 875</td></tr><tr><td/><td>indexation</td><td colspan=\"2\">484 060</td><td colspan=\"2\">3 658 988</td><td colspan=\"2\">3 686 857</td></tr><tr><td/><td>dur\u00e9e totale</td><td colspan=\"2\">1,1j (26,5h)</td><td colspan=\"4\">2,38j (57,3h) 5,3j (127,5h)</td></tr><tr><td/><td>Stat/Index</td><td>nbB</td><td>nbL</td><td>nbB</td><td>nbL</td><td>nbB</td><td>nbL</td></tr><tr><td/><td>Min</td><td>1</td><td>1</td><td>1</td><td>1</td><td>1</td><td>1</td></tr><tr><td>(b)</td><td>Max</td><td>1</td><td>461 075</td><td>8</td><td>1 262</td><td>186</td><td>9 277</td></tr><tr><td/><td>Sd</td><td>0</td><td>7 646,5</td><td>0,01</td><td>18,7</td><td>8,4</td><td>32,61</td></tr><tr><td/><td>Mean</td><td>1</td><td>295,4</td><td>8</td><td>19,4</td><td>7,3</td><td>20,9</td></tr></table>",
                "num": null,
                "text": "du moteur de recherche fran\u00e7ais Exalead 12 et sont compos\u00e9es de questions factuelles (e.g. Qui est Gandhi ?, Combien p\u00e8se la tour Eiffel ?, O\u00f9 se situe Pondich\u00e9ry ? et Que signifie CSDPTT ?).",
                "html": null,
                "type_str": "table"
            },
            "TABREF4": {
                "content": "<table/>",
                "num": null,
                "text": "",
                "html": null,
                "type_str": "table"
            },
            "TABREF5": {
                "content": "<table><tr><td>Le test de McNemar (McNemar, 1947), que nous avons utilis\u00e9 dans nos exp\u00e9riences, \u00e9tablit la</td></tr><tr><td>significativit\u00e9 des r\u00e9sultats observ\u00e9s entre 2 conditions A et B et une mesure M donn\u00e9e, selon</td></tr><tr><td>des variations observ\u00e9es entre A et B, synth\u00e9tis\u00e9es dans une table de contingence 2x2. De l\u00e0, le</td></tr><tr><td>test (bilat\u00e9ral) estime une valeur Q (i.e. khi\u00b2 de McNemar) pour un degr\u00e9 de libert\u00e9 d f donn\u00e9 et</td></tr><tr><td>d\u00e9rive une valeur p. Si p est inf\u00e9rieure (ou \u00e9gale) au seuil critique \u03b1, l'hypoth\u00e8se nulle H 0 est</td></tr><tr><td>rejet\u00e9e et la diff\u00e9rence observ\u00e9e entre A et B est jug\u00e9e significative. Dans notre cas, une table</td></tr><tr><td>de contingence comptabilise le total de questions (#q) pour lesquelles RITEL-QR trouve une</td></tr><tr><td>r\u00e9ponse de m\u00eame exactitude en conditions A et B. Il y a 4 types de compte, nombre total de</td></tr><tr><td>questions avec une r\u00e9ponse : correcte (r) selon A et selon B (#rr), fausse (w, xs ou xl) selon A et</td></tr><tr><td>selon B (#WW), correcte selon A et fausse selon B (#rW) et inversement (#Wr).</td></tr></table>",
                "num": null,
                "text": "Mais le MRR pr\u00e9sente un \u00e9cart plus important entre les conditions (2 points entre les conditions bsln et ctrl, et 1 point entre les conditions bsln et TT). La segmentation ctrl semble donc permettre au syst\u00e8me de trouver de meilleures r\u00e9ponses (i.e. des r\u00e9ponses plus pr\u00e9cises) qu'en condition baseline ou TextTiling. Toutefois, d'apr\u00e8s les tests statistiques des performances QR pr\u00e9sent\u00e9s tableau 3, ceci n'est qu'une tendance.",
                "html": null,
                "type_str": "table"
            },
            "TABREF7": {
                "content": "<table><tr><td colspan=\"2\">d f =1,\u03b1=.05 mesure #q</td><td>r</td><td colspan=\"4\">ctrl (A) / bsln (B) W Q p H 0</td><td>r</td><td>bsln (A) / TT (B) W Q p H 0</td><td>r</td><td colspan=\"2\">ctrl (A) / TT (B) W Q p H 0</td></tr><tr><td>P</td><td>r</td><td colspan=\"2\">77 21</td><td>0</td><td>1</td><td>\u2715</td><td colspan=\"2\">80 17 .02 .86 \u2715</td><td colspan=\"2\">80 18</td><td>0</td><td>1</td><td>\u2715</td></tr><tr><td/><td>W</td><td colspan=\"2\">20 191</td><td/><td/><td/><td colspan=\"2\">19 193</td><td colspan=\"2\">19 192</td></tr><tr><td>top-10</td><td colspan=\"11\">r 167 23 3.55 .05 \u2713 164 14 .48 .48 \u2715 174 16 1.44 .23 \u2715</td></tr><tr><td>(MRR)</td><td>W</td><td colspan=\"2\">11 108</td><td/><td/><td/><td colspan=\"2\">19 112</td><td colspan=\"2\">9 110</td></tr></table>",
                "num": null,
                "text": "(a) R\u00e9sultats QR globaux par condition exp\u00e9rimentale (Cond). P : pr\u00e9cision ; MRR : rang moyen r\u00e9ciproque ; top-10 : pr\u00e9cision sur 10 rangs. #q : nombre total de questions \u00e9valu\u00e9es. #r, #xs, #xl et #w : nombre total de r\u00e9ponses justes, trop courtes, trop longues et fausses, selon le top-1. (b) Focus sur les r\u00e9sultats du top-10 pr\u00e9sent\u00e9s en (a), selon chaque position (rang) dans le classement (r\u00e9ponses justes uniquement).",
                "html": null,
                "type_str": "table"
            },
            "TABREF8": {
                "content": "<table/>",
                "num": null,
                "text": "R\u00e9sultats de significativit\u00e9 du test (bilat\u00e9ral) de McNeamr pour les r\u00e9sultats QR du tableau 2 (a).",
                "html": null,
                "type_str": "table"
            }
        }
    }
}