Update README.md
Browse files
README.md
CHANGED
|
@@ -7,6 +7,10 @@ license: cc-by-nc-4.0
|
|
| 7 |
> [!NOTE]
|
| 8 |
> Dataset origin: https://www.ortolang.fr/market/corpora/convers
|
| 9 |
|
|
|
|
|
|
|
|
|
|
|
|
|
| 10 |
# Description
|
| 11 |
Nous présentons un nouveau paradigme pour les neurosciences sociales qui compare une interaction sociale humaine (interaction humain-humain, HHI) à une interaction avec un robot conversationnel (interaction humain-robot, HRI) pendant l'imagerie par résonance magnétique fonctionnelle (IRMf). Nous avons enregistré des blocs d'une minute de discussion bidirectionnelle en direct entre un participant dans un scanner et un autre humain (confédéré) ou un robot qui se trouvait à l'extérieur du scanner. Une page de présentation fournit le sujet de la discussion tout en cachant aux participants les objectifs réels de l'expérience. Pour ce faire, nous avons recueilli des données multimodales incluant le comportement (discours du participant et de l'agent humain ou robot, capture vidéo de l'agent humain et robot, et le mouvement du regard du participant scanné) et la physiologie (signal BOLD, respiration et flux sanguin périphérique) pour former un corpus. Les données vocales transcrites (fichiers .textGrid) peuvent être trouvées ici (l'ensemble de données sera mis à jour au fur et à mesure de la transcription).
|
| 12 |
|
|
|
|
| 7 |
> [!NOTE]
|
| 8 |
> Dataset origin: https://www.ortolang.fr/market/corpora/convers
|
| 9 |
|
| 10 |
+
> [!CAUTION]
|
| 11 |
+
> Ce jeu de données ne contient que les transcriptions. Pour récupérer les audios, vous devez vous rendre sur le site d'Ortholang et vous connecter afin de télécharger les données.
|
| 12 |
+
|
| 13 |
+
|
| 14 |
# Description
|
| 15 |
Nous présentons un nouveau paradigme pour les neurosciences sociales qui compare une interaction sociale humaine (interaction humain-humain, HHI) à une interaction avec un robot conversationnel (interaction humain-robot, HRI) pendant l'imagerie par résonance magnétique fonctionnelle (IRMf). Nous avons enregistré des blocs d'une minute de discussion bidirectionnelle en direct entre un participant dans un scanner et un autre humain (confédéré) ou un robot qui se trouvait à l'extérieur du scanner. Une page de présentation fournit le sujet de la discussion tout en cachant aux participants les objectifs réels de l'expérience. Pour ce faire, nous avons recueilli des données multimodales incluant le comportement (discours du participant et de l'agent humain ou robot, capture vidéo de l'agent humain et robot, et le mouvement du regard du participant scanné) et la physiologie (signal BOLD, respiration et flux sanguin périphérique) pour former un corpus. Les données vocales transcrites (fichiers .textGrid) peuvent être trouvées ici (l'ensemble de données sera mis à jour au fur et à mesure de la transcription).
|
| 16 |
|