Spaces:
Sleeping
Sleeping
fatimataba21
commited on
Commit
·
a41ffc4
1
Parent(s):
361778e
ff
Browse files
app.py
CHANGED
|
@@ -69,7 +69,7 @@ questions = [
|
|
| 69 |
["Q36", "Fréquence d'accès à des pages web, correspond à (choisir la plus convenable)", ["Map renvoie des paires <pageID,1> et Reduce renvoie <pageID, reduce(+)[ 1, . . . , 1 ]>", "Traitements parallèles en Batch sur des données au repos sur disques distribués", "la modification d'une portion d'un fichier, l'on doit écraser le fichier (les gros fichiers historisés -ex. log, données warehouses- ne sont pas faits pour changer fréquemment)", "[ op (x0), . . . , op (xn) ]", "Sort-Copy-Merge", "Traitements parallèles en Batch en mémoire sur des données réparties", "Techniques de micro-batching", "x0 op x1 op x2. . . . op xn-1 op xn", "couche de programmation médiatrice de type ETL entre zone production données & big data lake ou entre le big data lake & le datawarehousing ou le sand box analytics", "Map renvoie des paires < word, pageID > et Reduce renvoie < word, list(pageID) >"], "Map renvoie des paires <pageID,1> et Reduce renvoie <pageID, reduce(+)[ 1, . . . , 1 ]>"],
|
| 70 |
["Q37", "Une architecture se référant à quelques V parmi les 4 V (Velocity, Volume, Variety, Veracity), mais n'implémentant pas l'infrastructure Hadoop, ne peut pas être qualifiée d'Architecture de données massives.", ["Vrai", "Faux"], "Faux"],
|
| 71 |
["Q38", "Quelle est la raison principale qui permet aux moteurs de Stream Processing (RTAP) de traiter des données au mouvement à une fréquence de TB/sec ?", ["Les données sont traitées en mémoire", "Les données récupérées depuis des stockages SSD PCI-e", "Infiniband est utilisé pour un accès grande vitesse au stockage", "Les traitements utilisent la puissance des serveurs hautes performances HPC"], "Les traitements utilisent la puissance des serveurs hautes performances HPC"],
|
| 72 |
-
["Q39", "Quelles sont les actions fichiers possibles à faire sur HDFS ? Choisir plusieurs actions !!", ["Index", "Delete", "Execute", "Create", "Update"], ["Delete", "Create"
|
| 73 |
["Q40", "Which two file actions can HDFS complete ?", ["Index, Update", "Create, Index", "Create, Execute", "Create, Delete"], "Create, Delete"],
|
| 74 |
["Q41", "Le paradigme de FOG computing révolutionnant le Cloud Computing permet d'analyser les données sensibles au temps (nécessitant du temps réel) aux frontières du réseau près de leur source de production sans plus inonder l'architecture Big Data par des données massives non pertinentes.", ["Vrai", "Faux"], "Vrai"],
|
| 75 |
["Q42", "Quel est un des deux principes directeurs de Map Reduce ?", ["Fournir une structure à des données non-structurées ou semi-structurées", "Améliorer la capacité de stockage à travers des algorithmes de compression avancés", "Fournir une plateforme pour un traitement transactionnel efficace", "Distribuer les données à travers un cluster de machines"], "Distribuer les données à travers un cluster de machines"],
|
|
|
|
| 69 |
["Q36", "Fréquence d'accès à des pages web, correspond à (choisir la plus convenable)", ["Map renvoie des paires <pageID,1> et Reduce renvoie <pageID, reduce(+)[ 1, . . . , 1 ]>", "Traitements parallèles en Batch sur des données au repos sur disques distribués", "la modification d'une portion d'un fichier, l'on doit écraser le fichier (les gros fichiers historisés -ex. log, données warehouses- ne sont pas faits pour changer fréquemment)", "[ op (x0), . . . , op (xn) ]", "Sort-Copy-Merge", "Traitements parallèles en Batch en mémoire sur des données réparties", "Techniques de micro-batching", "x0 op x1 op x2. . . . op xn-1 op xn", "couche de programmation médiatrice de type ETL entre zone production données & big data lake ou entre le big data lake & le datawarehousing ou le sand box analytics", "Map renvoie des paires < word, pageID > et Reduce renvoie < word, list(pageID) >"], "Map renvoie des paires <pageID,1> et Reduce renvoie <pageID, reduce(+)[ 1, . . . , 1 ]>"],
|
| 70 |
["Q37", "Une architecture se référant à quelques V parmi les 4 V (Velocity, Volume, Variety, Veracity), mais n'implémentant pas l'infrastructure Hadoop, ne peut pas être qualifiée d'Architecture de données massives.", ["Vrai", "Faux"], "Faux"],
|
| 71 |
["Q38", "Quelle est la raison principale qui permet aux moteurs de Stream Processing (RTAP) de traiter des données au mouvement à une fréquence de TB/sec ?", ["Les données sont traitées en mémoire", "Les données récupérées depuis des stockages SSD PCI-e", "Infiniband est utilisé pour un accès grande vitesse au stockage", "Les traitements utilisent la puissance des serveurs hautes performances HPC"], "Les traitements utilisent la puissance des serveurs hautes performances HPC"],
|
| 72 |
+
["Q39", "Quelles sont les actions fichiers possibles à faire sur HDFS ? Choisir plusieurs actions !!", ["Index", "Delete", "Execute", "Create", "Update"], ["Delete", "Create"]],
|
| 73 |
["Q40", "Which two file actions can HDFS complete ?", ["Index, Update", "Create, Index", "Create, Execute", "Create, Delete"], "Create, Delete"],
|
| 74 |
["Q41", "Le paradigme de FOG computing révolutionnant le Cloud Computing permet d'analyser les données sensibles au temps (nécessitant du temps réel) aux frontières du réseau près de leur source de production sans plus inonder l'architecture Big Data par des données massives non pertinentes.", ["Vrai", "Faux"], "Vrai"],
|
| 75 |
["Q42", "Quel est un des deux principes directeurs de Map Reduce ?", ["Fournir une structure à des données non-structurées ou semi-structurées", "Améliorer la capacité de stockage à travers des algorithmes de compression avancés", "Fournir une plateforme pour un traitement transactionnel efficace", "Distribuer les données à travers un cluster de machines"], "Distribuer les données à travers un cluster de machines"],
|