{ "paper_id": "F14-2015", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T10:22:41.707135Z" }, "title": "D\u00e9composition des \u00ab hash tags \u00bb pour l'am\u00e9lioration de la classification en polarit\u00e9 des \u00ab tweets \u00bb", "authors": [ { "first": "Caroline", "middle": [], "last": "Brun", "suffix": "", "affiliation": {}, "email": "caroline.brun@xerox.xrce.com" }, { "first": "Claude", "middle": [], "last": "Roux", "suffix": "", "affiliation": {}, "email": "claude.roux@xerox.xrce.com" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Les \u00ab mots di\u00e8ses\u00bb ou \u00ab hash tags \u00bb sont le moyen naturel de lier entre eux diff\u00e9rents tweets. Certains \u00ab hash tags \u00bb sont en fait de petites phrases dont la d\u00e9composition peut se r\u00e9v\u00e9ler particuli\u00e8rement utile lors d'une analyse d'opinion des tweets. Nous allons montrer dans cet article comment l'on peut automatiser cette d\u00e9composition et cette analyse de fa\u00e7on \u00e0 am\u00e9liorer la d\u00e9tection de la polarit\u00e9 des tweets.", "pdf_parse": { "paper_id": "F14-2015", "_pdf_hash": "", "abstract": [ { "text": "Les \u00ab mots di\u00e8ses\u00bb ou \u00ab hash tags \u00bb sont le moyen naturel de lier entre eux diff\u00e9rents tweets. Certains \u00ab hash tags \u00bb sont en fait de petites phrases dont la d\u00e9composition peut se r\u00e9v\u00e9ler particuli\u00e8rement utile lors d'une analyse d'opinion des tweets. Nous allons montrer dans cet article comment l'on peut automatiser cette d\u00e9composition et cette analyse de fa\u00e7on \u00e0 am\u00e9liorer la d\u00e9tection de la polarit\u00e9 des tweets.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "Twitter est devenu en quelques ann\u00e9es le service de mico-blogging le plus populaire sur Internet. Les utilisateurs, appel\u00e9s aussi \u00ab Tweetos \u00bb peuvent envoyer sur une plate-forme de partage de petits messages d'au plus 140 caract\u00e8res, les tweets. De nombreuses exp\u00e9riences ont montr\u00e9 que ces \u00ab tweets \u00bb \u00e9taient souvent un tr\u00e8s bon indicateur des choses \u00e0 venir. Ainsi, [Asur et al. 2010] ont d\u00e9couvert que l'on pouvait pr\u00e9voir le succ\u00e8s d'un film uniquement sur la base des tweets envoy\u00e9 \u00e0 son sujet. Les tweets jouent aussi un r\u00f4le dans les plans marketing des entreprises pour d\u00e9tecter comment leurs produits sont per\u00e7us par leurs clients. Les hash tags (ou hash tags) en particulier, jouent un r\u00f4le sp\u00e9cifique pour assurer un liant entre tous ces messages. Ces \u00ab hash tags \u00bb sont des m\u00e9tadonn\u00e9es, des annotations libres d\u00e9finies par les utilisateurs qui servent \u00e0 marquer l'appartenance d'un message \u00e0 un domaine particulier, de construire un canal implicite de communication. [Wang et al. 2011 ] d\u00e9finit en particulier trois familles de hash tags : Sujet : hash tags utilis\u00e9s pour d\u00e9finir grossi\u00e8rement un sujet particulier : #Sarkozy, #LeDebat\u2026 ; Sentiment : #Idiot , #Deception, qui indiquent essentiellement une tonalit\u00e9 ; Sentiment-Sujet : hash tags, qui recoupent \u00e0 la fois les sentiments et un sujet particulier : #ViveHollande, #SarkoOnTaime ;", "cite_spans": [ { "start": 368, "end": 386, "text": "[Asur et al. 2010]", "ref_id": "BIBREF2" }, { "start": 979, "end": 996, "text": "[Wang et al. 2011", "ref_id": "BIBREF20" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "De fait, comme les hash tags sont un \u00e9l\u00e9ment essentiel des tweets, la plupart des syst\u00e8mes d'analyse d'opinion cherchent \u00e0 les incorporer dans leur calcul. [Davidov et al 2010] montre, par exemple, comment l'on peut am\u00e9liorer les techniques standards de classification supervis\u00e9e en int\u00e9grant la polarit\u00e9 des hash tags les plus fr\u00e9quents comme param\u00e8tre, polarit\u00e9 qui est assign\u00e9e ici manuellement. [Kouloumpis et al. 2011 ] ont aussi employ\u00e9 une m\u00e9thode similaire, mais ont rajout\u00e9 les \u00e9moticons dans la d\u00e9tection de la polarit\u00e9 des tweets.", "cite_spans": [ { "start": 399, "end": 422, "text": "[Kouloumpis et al. 2011", "ref_id": "BIBREF12" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Cependant, d\u00e9finir \u00e0 la main la polarit\u00e9 des hash tags n'a rien d'une aventure exaltante et peut se r\u00e9v\u00e9ler plut\u00f4t co\u00fbteuse comme op\u00e9ration. [Dave et al. 2012] n'utilise la polarit\u00e9 des hash tags qu'\u00e0 la condition qu'ils appartiennent \u00e0 une liste connue \u00e0 l'avance de mots tels que : #efficace, #nul, #incapable, #visionnaire etc. Mais, malheureusement, ils perdent l\u00e0 la majorit\u00e9 des expressions \u00e0 mots multiples, dont pourtant raffolent les Tweetos. Pourtant, toutes ces exp\u00e9riences prouvent combien l'utilisation des hash tags peut se r\u00e9v\u00e9ler pr\u00e9cieuse dans l'\u00e9valuation de messages dont la taille s'av\u00e8re souvent trop courte pour que les m\u00e9thodes traditionnelles fonctionnent de mani\u00e8re optimale. Les hash tags sont par ailleurs souvent la clef pour d\u00e9terminer l'ironie ou l'humour dans un message donn\u00e9. Or, ils se r\u00e9v\u00e8lent particuli\u00e8rement difficiles \u00e0 analyser. Ils peuvent \u00eatre aussi bien des noms propres, des noms de lieux ou des phrases compl\u00e8tes sans souvent le moindre indice sur leur construction interne.", "cite_spans": [ { "start": 141, "end": 159, "text": "[Dave et al. 2012]", "ref_id": "BIBREF6" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans ce papier, nous proposons une m\u00e9thode qui permet de d\u00e9tecter automatiquement la polarit\u00e9 d'un hash tag, en appliquant tout d'abord des m\u00e9thodes de d\u00e9composition pour les segmenter, suivie d'une analyse avec une grammaire des sentiments pour en d\u00e9tecter la polarit\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "L'une des t\u00e2ches de base dans l'extraction d'opinion ou de sentiment est de classifier la polarit\u00e9 d'un document selon plusieurs axes tels que: neutre, positif ou n\u00e9gatif. Il existe de nombreuses approches pour r\u00e9soudre ce probl\u00e8me. Certains chercheurs classent les documents selon une \u00e9chelle num\u00e9rique, associant aux diff\u00e9rents mots une valeur n\u00e9gative ou positive selon leur polarit\u00e9 propre. Ils en d\u00e9duisent ainsi une polarit\u00e9 globale en fonction du nombre de mots positifs ou n\u00e9gatifs pr\u00e9sents dans le document. Mais ces approches ont l'inconv\u00e9nient de mal refl\u00e9ter les opinions contrast\u00e9es d'un individu donn\u00e9. Ainsi dans le cas d'un restaurant, il/elle peut appr\u00e9cier l'ambiance mais critiquer le service ou la cuisine. L'approche \u00e0 laquelle nous nous int\u00e9ressons ici consiste donc \u00e0 d\u00e9tecter ces diff\u00e9rents \u00ab aspects \u00bb au sein d'un document, aspects pour lesquels nous voulons calculer une polarit\u00e9 adapt\u00e9e, (voir [Hu & Liu 2004] , [Liu 2012] ). Ce travail n\u00e9cessite une approche plus fine, le mot \u00ab rouge \u00bb par exemple peut \u00eatre positif pour une viande, mais plut\u00f4t n\u00e9gatif s'il est appliqu\u00e9 \u00e0 l'humeur d'un serveur.", "cite_spans": [ { "start": 922, "end": 937, "text": "[Hu & Liu 2004]", "ref_id": "BIBREF9" }, { "start": 940, "end": 950, "text": "[Liu 2012]", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Le contexte", "sec_num": "2" }, { "text": "Nous avons r\u00e9alis\u00e9 l'ensemble de nos exp\u00e9riences avec le corpus de tweets du projet Imagiweb. Ce projet financ\u00e9 par l'ANR 1 consiste \u00e0 \u00e9tudier l'image de personnalit\u00e9s politiques ou de compagnies telle qu'elle appara\u00eet sur la Toile, \u00e0 travers des blogs ou des tweets. En particulier, l'une des t\u00e2ches consiste \u00e0 analyser les images de N. Sarkozy et de F. Hollande lors de la derni\u00e8re \u00e9lection pr\u00e9sidentielle en Mai 2012, pour effectuer une analyse d'opinion sur certains aspects de la perception de ces hommes politiques au sein de la population des Tweetos.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Imagiweb", "sec_num": "2.1" }, { "text": "Les donn\u00e9es ont \u00e9t\u00e9 extraites automatiquement de Twitter avec des requ\u00eates appropri\u00e9es par l'un des partenaires du projet. Le corpus ainsi construit correspond \u00e0 environ 1500 utilisateurs, sur la base de 10 personnalit\u00e9s politiques diff\u00e9rentes. De ce corpus ont \u00e9t\u00e9 isol\u00e9 environ 20.000 tweets, distribu\u00e9s de fa\u00e7on uniforme entre N. Sarkozy et F. Hollande, qui ont \u00e9t\u00e9 ensuite annot\u00e9 manuellement en polarit\u00e9 selon les aspects suivants : apparence physique, projet politique, sens \u00e9thique, communication etc. Soit environ 10 cat\u00e9gories, d\u00e9compos\u00e9es en 17 sous-cibles au total.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Imagiweb", "sec_num": "2.1" }, { "text": "Les donn\u00e9es dont nous nous servons au sein du projet ImagiWeb comprennent un grand nombre de \u00ab hash tags \u00bb correspondant \u00e0 de petites phrases. Le terme \u00ab hash \u00bb r\u00e9f\u00e8re \u00e0 une m\u00e9thode d'indexation bien connue en informatique, le \u00ab hachage \u00bb qui consiste \u00e0 calculer un index num\u00e9rique pour une valeur donn\u00e9e afin de la ranger dans une table de taille fixe. Par exemple, le calcul du reste d'une division \u00ab n : d \u00bb rend toujours une valeur comprise entre [0..d-1], ce qui permet de ranger dans une table de dimension \u00ab d \u00bb n'importe quelle valeur.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9composition", "sec_num": "3" }, { "text": "Un \u00ab hash tag \u00bb commence toujours par le caract\u00e8re \u00ab # \u00bb ce qui permet de le rep\u00e9rer tr\u00e8s rapidement dans le flux d'analyse. Ces \u00ab hash tags \u00bb posent des probl\u00e8mes tr\u00e8s particuliers \u00e0 l'analyse linguistique. En effet, ils sont consid\u00e9r\u00e9s comme des mots inconnus et leur s\u00e9mantique particuli\u00e8re se perd dans le traitement complet. Or, dans un \u00ab tweet \u00bb dont la longueur ne peut exc\u00e9der 144 caract\u00e8res, ignorer les \u00ab hash tags \u00bb peut conduire \u00e0 une d\u00e9gradation tr\u00e8s forte de l'interpr\u00e9tation de celui-ci. En effet, les \u00ab hash tags \u00bb sont souvent employ\u00e9s soit pour v\u00e9hiculer des informations sur l'auteur du tweet, soit pour r\u00e9pondre \u00e0 un autre tweet, soit pour introduire un contre-point au message, sous la forme d'une remarque ironique ou amusante.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9composition", "sec_num": "3" }, { "text": "Voici quelques exemples de \u00ab hash tags \u00bb trouv\u00e9s dans nos corpus: #MariagePourTous, #AvecSarkozy, #voteHollande, #placeaupeuple etc.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9composition", "sec_num": "3" }, { "text": "Les \u00ab hash tags \u00bb dans nos corpus tombent peu ou prou dans quatre cat\u00e9gories : a. Les hash tags qui correspondent \u00e0 un seul mot de la langue b. Les hash tags qui correspondent \u00e0 un nom propre c. Les hash tags qui correspondent \u00e0 un groupe de mots d. Les hash tags impossibles \u00e0 d\u00e9coder, le plus souvent des acronymes ou des chiffres.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9composition", "sec_num": "3" }, { "text": "Les deux premi\u00e8res cat\u00e9gories sont tr\u00e8s simples \u00e0 analyser et ne requi\u00e8rent pas de traitement tr\u00e8s lourd. Il suffit de disposer de lexiques ad\u00e9quats pour les traiter. La derni\u00e8re cat\u00e9gorie elle contient une information qui pose d\u00e9j\u00e0 des probl\u00e8mes \u00e0 des humains pour les comprendre, nous n'avons pas essay\u00e9 de les interpr\u00e9ter plus avant. Nous nous sommes en revanche concentr\u00e9s sur la cat\u00e9gorie c) pour tenter de d\u00e9couper en mots le contenu. Peu de travaux s'int\u00e9ressent a la segmentation des \u00ab hash tags \u00bb, citons [Bakliwal et al. 2012] qui d\u00e9tectent les mots de polarit\u00e9 positive ou n\u00e9gative dans un \u00ab hash tag \u00bb, par exemple \u00ab happy \u00bb dans \u00ab #Iamhappy \u00bb, mais concluent qu'une segmentation serait plus appropri\u00e9e, par exemple pour pouvoir d\u00e9tecter les n\u00e9gations. Tr\u00e8s r\u00e9cemment, [Maynard & Greenwood 2014] segmentent \u00e9galement les \u00abhash tags \u00bb pour am\u00e9liorer la d\u00e9tection des tweets sarcastiques.", "cite_spans": [ { "start": 514, "end": 536, "text": "[Bakliwal et al. 2012]", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "D\u00e9composition", "sec_num": "3" }, { "text": "Il existe nombre de m\u00e9thodes pour d\u00e9couper des chaines en unit\u00e9s lexicales, en particulier dans des langues agglutinatives comme l'allemand, o\u00f9 les mots compos\u00e9s sont non seulement nombreux mais peuvent souvent \u00eatre construits librement. Un mot comme \u00ab Geburtstagfest \u00bb, qui signifie \u00ab f\u00eate d'anniversaire \u00bb est compos\u00e9 de trois segments : Geburt (\u00eatre n\u00e9), Tag(le jour) et Fest (f\u00eate). Il existe des r\u00e8gles pr\u00e9cises qui gouvernent la composition de ces mots, en particulier ici l'utilisation d'un \u00ab s \u00bb entre Geburt et Tag. [Koen et al 03] proposent diff\u00e9rentes m\u00e9thodes pour red\u00e9couper cette chaine en ses racines premi\u00e8res, en se basant sur leurs fr\u00e9quences au sein d'un corpus ou d'un lexique. Ils obtiennent ainsi une pr\u00e9cision de l'ordre de 83%. Notre probl\u00e8me est tr\u00e8s proche de celui du d\u00e9coupage d'un mot compos\u00e9 allemand, mais nous avons pr\u00e9f\u00e9r\u00e9 utiliser des m\u00e9thodes plus simples pour r\u00e9soudre notre probl\u00e8me. Ainsi, pour d\u00e9couper les hash tags compos\u00e9s de plusieurs mots, nous avons utilis\u00e9 diff\u00e9rentes techniques selon la nature du \u00ab hash tag \u00bb lui-m\u00eame. L'exemple le plus simple est l'utilisation de majuscule au d\u00e9but des mots pour les diff\u00e9rencier entre eux. Dans ce cas, il suffit de rep\u00e9rer celles-ci pour le d\u00e9couper : #MariagePourTous donne \u00ab mariage pour tous \u00bb.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9coupage", "sec_num": "3.1" }, { "text": "Cette m\u00e9thode \u00e9choue souvent lorsque la cha\u00eene est en minuscule mais contient un nom propre telle que : #avecHollande. On utilise alors une seconde m\u00e9thode qui consiste \u00e0 analyser la chaine en deux phases. Dans un premier temps, on analyse la cha\u00eene depuis le d\u00e9but et on tente de rep\u00e9rer la sous-cha\u00eene la plus longue appartenant \u00e0 nos lexiques. Nous choisissons la cha\u00eene la plus longue pour \u00e9viter certains \u00e9cueils. Par exemple dans le hash tag \u00ab #placeaupeuple \u00bb, on veut \u00e9viter d'arr\u00eater le traitement apr\u00e8s avoir d\u00e9tect\u00e9 \u00ab peu \u00bb, mais au contraire aller jusqu'au bout pour isoler \u00ab peuple \u00bb. On effectue la m\u00eame op\u00e9ration en partant aussi de la fin. Analyser depuis la fin ou depuis le d\u00e9but ne donne pas forc\u00e9ment les m\u00eames r\u00e9sultats. Ce travail \u00e0 priori simple pr\u00e9sente une certaine combinatoire parfois difficile \u00e0 contr\u00f4ler. Nous travaillons d'ailleurs sur des m\u00e9thodes plus sophistiqu\u00e9es, bas\u00e9 sur l'utilisation d'automates pour effectuer la reconnaissance des sous-cha\u00eenes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9coupage", "sec_num": "3.1" }, { "text": "On \u00e9value ensuite les trois d\u00e9coupages en comptant le nombre de mots inconnus et on garde celui qui offre le score le plus faible. Nous avons appliqu\u00e9 cette m\u00e9thode sur notre corpus et nous avons obtenu une pr\u00e9cision d'environ 80% pour les 1132 \u00ab hash tags \u00bb extraits de nos 20.000 tweets. Cette pr\u00e9cision a \u00e9t\u00e9 obtenue en v\u00e9rifiant chacun des d\u00e9coupages produits \u00e0 la main. Pour information, sur les 1132 hash tags, 524 pr\u00e9sentaient une possibilit\u00e9 de d\u00e9coupage (soit 46%), et parmi eux 160 (soit 30% de ces mots compos\u00e9s ou 14% du total) utilisaient une d\u00e9limitation avec majuscule. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Evaluation", "sec_num": "3.2" }, { "text": "Nous utilisons notre analyseur syntaxique comme composant fondamental pour extraire les d\u00e9pendances syntaxiques profondes \u00e0 partir desquelles sont construites nos relations s\u00e9mantiques, \u00e0 partir desquelles les pr\u00e9dicats sont instanci\u00e9s. Elles sont encod\u00e9es sous la forme suivante : OPINION[POLARITE](POLAR-PREDICAT,OPINION-CIBLE), o\u00f9 OPINION est le nom de la relation s\u00e9mantique, POLARITE un trait associ\u00e9 avec la d\u00e9pendance, dont les valeurs sont : \"POSITIVE\" ou \"NEGATIVE\". POLAR-PREDICAT est l'expression dans l'\u00e9nonc\u00e9 portant la polarit\u00e9 de l'opinion et OPINION-CIBLE, la cible de l'opinion.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection de l'opinion", "sec_num": "4.2" }, { "text": "Ces relations s\u00e9mantiques sont en fait produites par des r\u00e8gles particuli\u00e8res au sein de notre analyseur robuste, qui combine \u00e0 cette fin, informations lexicales sp\u00e9cialis\u00e9es et d\u00e9pendances syntaxiques. En particulier notre lexique comprend aussi bien des mots du domaine dont la polarit\u00e9 est connue que les hash tags extraits pr\u00e9alablement. Si les lexiques ont \u00e9t\u00e9 construits en appliquant des techniques de clustering et de classifications sur de larges corpus ( [Brun 2012] ), les r\u00e8gles s\u00e9mantiques sont d\u00e9velopp\u00e9es manuellement ( [Brun 2011] ). Ces r\u00e8gles prennent la forme suivante :", "cite_spans": [ { "start": 465, "end": 476, "text": "[Brun 2012]", "ref_id": "BIBREF5" }, { "start": 535, "end": 546, "text": "[Brun 2011]", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection de l'opinion", "sec_num": "4.2" }, { "text": "If (SUJET(#1[!polarit\u00e9:!], #2))==> SENTIMENT[polarit\u00e9](#2,#1)", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection de l'opinion", "sec_num": "4.2" }, { "text": "Cette r\u00e8gle peut se lire de la fa\u00e7on suivante. Si un verbe donn\u00e9 (ici #1) portant une certaine polarit\u00e9 est sujet d'un nom #2, alors on produit une d\u00e9pendance s\u00e9mantique SENTIMENT dont la polarit\u00e9 sera celle de ce verbe. (!polarit\u00e9 :! d\u00e9clenche une percolation du trait \u00e0 partir du verbe, lequel est alors captur\u00e9 par la d\u00e9pendance).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection de l'opinion", "sec_num": "4.2" }, { "text": "Ces enchiladas#2 m'\u00e9merveillent#1 sans cesse. Cette voiture#2 m'a profond\u00e9ment d\u00e9\u00e7ue#1.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exemples :", "sec_num": null }, { "text": "Environ une centaine de r\u00e8gles ont \u00e9t\u00e9 ainsi \u00e9crites pour couvrir un large \u00e9ventail de structures identifi\u00e9es dans les corpus d'apprentissage. Notre syst\u00e8me appartient \u00e0 la m\u00eame famille que celui de [Kim et Hovy 2006] ou [Wu et al. 2009] , qui utilisent aussi des d\u00e9pendances syntaxiques pour lier la source et la cible des opinions. De fait, avec ce type d'approche, il devient possible d'int\u00e9grer le traitement de ph\u00e9nom\u00e8nes complexes comme la n\u00e9gation par exemple.", "cite_spans": [ { "start": 199, "end": 217, "text": "[Kim et Hovy 2006]", "ref_id": null }, { "start": 221, "end": 237, "text": "[Wu et al. 2009]", "ref_id": "BIBREF21" } ], "ref_spans": [], "eq_spans": [], "section": "Exemples :", "sec_num": null }, { "text": "Dans une premi\u00e8re passe, nous avons d\u00e9tect\u00e9 tous les hash tags pr\u00e9sents dans le corpus. Puis nous avons appliqu\u00e9 notre m\u00e9canisme de d\u00e9coupage sur chacun d'entre eux. Comme nous disposons \u00e0 l'interne d'une grammaire d'opinion, enrichie d'un vocabulaire sp\u00e9cifique au domaine que nous traitons, nous avons pu l'appliquer sur ces d\u00e9compositions de fa\u00e7on \u00e0 attribuer \u00e0 chacun de ces hash tags une polarit\u00e9 positive ou n\u00e9gative. De cette fa\u00e7on, nous avons pu composer un lexique de hash tags, consid\u00e9r\u00e9s comme des noms, chacun associ\u00e9 avec un trait particulier pour indiquer sa polarit\u00e9, et \u00e9ventuellement sa cible.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "A partir des 896 hash tags correctement d\u00e9compos\u00e9s, nous avons obtenu les r\u00e9sultats suivants :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "215 hash tags encodant \u00e0 la fois la polarit\u00e9 et la cible comme: #VotezHollande,#HollandeHonte, #SarkoOnTaime 304 hash tags encodant seulement la polarit\u00e9 : #Abruti, #CasseToi 377 hash tags encodant seulement le sujet, parmi lesquels 169 sont des entit\u00e9s nomm\u00e9es.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "Une fois cette analyse effectu\u00e9e, nous les avons enregistr\u00e9s dans un lexique sp\u00e9cialis\u00e9 sous la forme suivante:", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "\"#SarkoPipo\": noun[negative=+,target=\"Sarkozy\"]. \"#VoteHollande\" : noun[positive=+, target=\"Hollande\"]. \"#CasseToi\" : noun [negative=+] .", "cite_spans": [ { "start": 123, "end": 135, "text": "[negative=+]", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "Ce lexique a \u00e9t\u00e9 alors int\u00e9gr\u00e9 \u00e0 notre grammaire d'opinion avant d'appliquer celle-ci \u00e0 notre corpus de tweets. De cette fa\u00e7on, lors du traitement linguistique, les hash tags sont interpr\u00e9t\u00e9s comme des noms par les couches basses de la grammaire (segmentation et analyse morphologique) puis enrichis avec les informations de polarit\u00e9 provenant de ces nouveaux lexiques sp\u00e9cialis\u00e9s. De cette fa\u00e7on, les donn\u00e9es de polarit\u00e9 introduites par les hash tags peuvent \u00eatre int\u00e9gr\u00e9es dans le calcul de polarit\u00e9 de chacun des aspects dans les tweets.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Adaptations aux tweets", "sec_num": "4.3" }, { "text": "Pour \u00e9valuer l'impact de l'int\u00e9gration de la polarit\u00e9 des hash tags et des cibles dans notre syst\u00e8me de d\u00e9tection d'opinion, nous avons proc\u00e9d\u00e9 \u00e0 plusieurs exp\u00e9riences de classification sur notre corpus Imagiweb de tweets annot\u00e9s. Ce corpus comprend donc 3920 tweets dont les opinions sont annot\u00e9es en polarit\u00e9 (ici positive ou n\u00e9gative) et en cible, comprenant un total de 392 hash tags d\u00e9compos\u00e9s. La mesure de performance choisie est l'exactitude de la classification. Nous avons compar\u00e9 le comportement de notre syst\u00e8me sur la d\u00e9tection de la polarit\u00e9 des tweets une premi\u00e8re fois sans les hash tags, et une seconde fois en les int\u00e9grant. Nous avons utilis\u00e9s les sorties de notre analyseur pour entrainer un SVM avec diff\u00e9rents param\u00e9trages (SVMLight, [Joachims 1999 Alors que l'utilisation des relations d'opinion dans l'entrainement de la classification n'a pas d'impact significatif, l'utilisation des hash tags am\u00e9liore l'exactitude de la classification d'environ 2%.", "cite_spans": [ { "start": 745, "end": 770, "text": "(SVMLight, [Joachims 1999", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Pour confirmer ce r\u00e9sultat, nous avons effectu\u00e9 les m\u00eames exp\u00e9riences avec un sous-ensemble du corpus initial, dans lesquels ne sont conserv\u00e9s que les tweets contenant des hash tags :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Exp\u00e9riences EXACTITUDE %", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Exp\u00e9rience 1 : sac de mots 79,9", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Exp\u00e9rience 2 : hash tag 84,6", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Exp\u00e9rience 3 : opinions 80,1", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Exp\u00e9rience 4: opinions+hash tags 84,7", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Dans ce dernier cas, l'am\u00e9lioration sur la t\u00e2che de classification est pass\u00e9e \u00e0 4,8% par rapport \u00e0 la r\u00e9f\u00e9rence. Ces r\u00e9sultats prouvent sans ambig\u00fcit\u00e9 l'impact significatif de l'int\u00e9gration des hash tags et de leur polarit\u00e9 dans la classification des tweets.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences et r\u00e9sultats", "sec_num": "5" }, { "text": "Dans ce papier, nous avons propos\u00e9 un m\u00e9canisme de d\u00e9composition automatique et d'analyse des \u00ab hash tags \u00bb de fa\u00e7on \u00e0 pouvoir utiliser l'information s\u00e9mantique dont ils sont porteurs dans une t\u00e2che de classification. Les diff\u00e9rentes exp\u00e9riences que nous avons conduites montrent que ces hash tags ont un impact important dans la polarit\u00e9 des tweets.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "6" }, { "text": "ANR 2012-CORD-002-01 [P-Se.1]", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "De plus, notre m\u00e9thode pr\u00e9sente l'avantage d'\u00eatre totalement automatique, et permet d'exploiter efficacement pr\u00e8s de 80% des \u00ab hash tags", "authors": [ { "first": "Caroline", "middle": [], "last": "Brun", "suffix": "" }, { "first": "Claude", "middle": [], "last": "Roux", "suffix": "" } ], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CAROLINE BRUN, CLAUDE ROUX De plus, notre m\u00e9thode pr\u00e9sente l'avantage d'\u00eatre totalement automatique, et permet d'exploiter efficacement pr\u00e8s de 80% des \u00ab hash tags \u00bb complexes pr\u00e9sents dans les tweets.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Robustness beyond Shallowness: Incremental Dependency Parsing", "authors": [ { "first": "Ait-Mokthar", "middle": [], "last": "R\u00e9f\u00e9rences", "suffix": "" }, { "first": "S", "middle": [], "last": "Chanod", "suffix": "" }, { "first": "J", "middle": [ "P" ], "last": "", "suffix": "" } ], "year": 2002, "venue": "Numero Special du NLE Journal", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "R\u00e9f\u00e9rences AIT-MOKTHAR, S., CHANOD, J.P. (2002). Robustness beyond Shallowness: Incremental Dependency Parsing. Numero Special du NLE Journal.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Actes de Web Intelligence and Intelligent Agent Technology (WI-IAT)", "authors": [ { "first": "S", "middle": [], "last": "Asur", "suffix": "" }, { "first": "B", "middle": [ "A" ], "last": "Huberman", "suffix": "" } ], "year": 2010, "venue": "IEEE/WIC/ACM International Conference", "volume": "1", "issue": "", "pages": "492--499", "other_ids": {}, "num": null, "urls": [], "raw_text": "ASUR, S., & HUBERMAN, B. A. (2010). Predicting the future with social media. Actes de Web Intelligence and Intelligent Agent Technology (WI-IAT), 2010 IEEE/WIC/ACM International Conference (Vol. 1, pp. 492-499). IEEE.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Mining sentiments from Tweets", "authors": [ { "first": "Akshat", "middle": [], "last": "Bakliwal", "suffix": "" }, { "first": "Piyush", "middle": [], "last": "Arora", "suffix": "" }, { "first": "Senthil", "middle": [], "last": "Madhappan", "suffix": "" }, { "first": "Nikhil", "middle": [], "last": "Kapre", "suffix": "" }, { "first": "Mukesh", "middle": [], "last": "Singh", "suffix": "" }, { "first": "And", "middle": [], "last": "Vasudeva Varma", "suffix": "" } ], "year": 2012, "venue": "Actes du 3eme Workshop in Computational Approaches to Subjectivity and Sentiment Analysis (WASSA '12)", "volume": "", "issue": "", "pages": "11--18", "other_ids": {}, "num": null, "urls": [], "raw_text": "AKSHAT BAKLIWAL, PIYUSH ARORA, SENTHIL MADHAPPAN, NIKHIL KAPRE, MUKESH SINGH, AND VASUDEVA VARMA. (2012). Mining sentiments from Tweets. Actes du 3eme Workshop in Computational Approaches to Subjectivity and Sentiment Analysis (WASSA '12). Association for Computational Linguistics, Stroudsburg, PA, USA, 11-18.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "Detecting Opinions Using Deep Syntactic Analysis. Actes de RANLP, Recent Advances in Natural Language Processing", "authors": [ { "first": "C", "middle": [], "last": "Brun", "suffix": "" } ], "year": 2011, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BRUN C. (2011). Detecting Opinions Using Deep Syntactic Analysis. Actes de RANLP, Recent Advances in Natural Language Processing, Hissar, Bulgaria, September 12-14, 2011.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Learning Opinionated Patterns for Contextual Opinion Detection, Actes de Coling2012", "authors": [ { "first": "C", "middle": [], "last": "Brun", "suffix": "" } ], "year": 2012, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BRUN C. (2012). Learning Opinionated Patterns for Contextual Opinion Detection, Actes de Coling2012, D\u00e9cembre 2012, Bombay, Inde.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Identifying microblogs for targeted contextual advertising", "authors": [ { "first": "K", "middle": [ "S" ], "last": "Dave", "suffix": "" }, { "first": "V", "middle": [], "last": "Varma", "suffix": "" } ], "year": 2012, "venue": "Actes de Sixth International AAAI Conference on Weblogs and Social Media", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DAVE, K. S., & VARMA, V. (2012, May). Identifying microblogs for targeted contextual advertising. Actes de Sixth International AAAI Conference on Weblogs and Social Media.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Enhanced sentiment learning using Twitter hashtags and smileys", "authors": [ { "first": "", "middle": [], "last": "Davidov D", "suffix": "" }, { "first": "Ari", "middle": [], "last": "Oren Tsur", "suffix": "" }, { "first": "", "middle": [], "last": "Rappoport", "suffix": "" } ], "year": 2010, "venue": "Actes de COLING '10. ACL", "volume": "", "issue": "", "pages": "241--249", "other_ids": {}, "num": null, "urls": [], "raw_text": "DAVIDOV D., OREN TSUR, AND ARI RAPPOPORT. (2010). Enhanced sentiment learning using Twitter hashtags and smileys. Actes de COLING '10. ACL, Stroudsburg, PA, USA, 241-249.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "LIA/LINA at the INEX 2012 Tweet Contextualization track. INitiative for the Evaluation of XML Retrieval", "authors": [ { "first": "R", "middle": [], "last": "Deveaud", "suffix": "" }, { "first": "F", "middle": [], "last": "Boudin", "suffix": "" } ], "year": 2012, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DEVEAUD, R., & BOUDIN, F. (2012). LIA/LINA at the INEX 2012 Tweet Contextualization track. INitiative for the Evaluation of XML Retrieval (INEX).", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Mining and summarizing customer reviews", "authors": [ { "first": "", "middle": [ "M" ], "last": "Hu", "suffix": "" }, { "first": "B", "middle": [], "last": "Liu", "suffix": "" } ], "year": 2004, "venue": "Actes de ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (KDD-2004)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HU. M., LIU, B. (2004). Mining and summarizing customer reviews. Actes de ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (KDD-2004), Seattle, Washington, USA.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Making large-Scale SVM Learning Practical", "authors": [ { "first": "", "middle": [], "last": "Joachims T", "suffix": "" } ], "year": 1999, "venue": "Advances in Kernel Methods -Support Vector Learning", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "JOACHIMS T. (1999). Making large-Scale SVM Learning Practical. Advances in Kernel Methods -Support Vector Learning, B. Sch\u00f6lkopf and C. Burges and A. Smola (ed.), MIT Press.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Empirical methods for compound splitting", "authors": [ { "first": "P", "middle": [], "last": "Koehn", "suffix": "" }, { "first": "K", "middle": [], "last": "Knight", "suffix": "" } ], "year": 2003, "venue": "Actes de the tenth conference on European chapter of the Association for Computational Linguistics", "volume": "1", "issue": "", "pages": "187--193", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOEHN, P., & KNIGHT, K. (2003). Empirical methods for compound splitting. Actes de the tenth conference on European chapter of the Association for Computational Linguistics-Volume 1 (pp. 187-193). Association for Computational Linguistics.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Twitter Sentiment Analysis: The Good the Bad and the OMG!", "authors": [ { "first": "E", "middle": [], "last": "Kouloumpis", "suffix": "" }, { "first": "T", "middle": [], "last": "Wilson", "suffix": "" }, { "first": "J", "middle": [], "last": "Moore", "suffix": "" } ], "year": 2011, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOULOUMPIS, E.,WILSON, T.ET MOORE, J. (2011), Twitter Sentiment Analysis: The Good the Bad and the OMG!, in Lada A. Adamic; Ricardo A. Baeza-Yates & Scott Counts, ed., 'ICWSM' , The AAAI Press.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Twitter Sentiment Analysis", "authors": [ { "first": "T", "middle": [], "last": "Lake", "suffix": "" }, { "first": "W", "middle": [], "last": "Fitzgerald", "suffix": "" } ], "year": 2011, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAKE, T., & FITZGERALD, W. (2011). Twitter Sentiment Analysis. Western Michigan University, Kalamazoo, MI, For client William Fitzgerald.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "English Verb Classes and Alternations A Preliminary Investigation", "authors": [ { "first": "Beth", "middle": [], "last": "Levin", "suffix": "" } ], "year": 1993, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEVIN, BETH. (1993). English Verb Classes and Alternations A Preliminary Investigation. University of Chicago Press, Chicago and London.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Sentiment Analysis and Subjectivity", "authors": [ { "first": "B", "middle": [], "last": "Liu", "suffix": "" } ], "year": 2010, "venue": "Chapter of Handbook of Natural Language Processing", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LIU, B. (2010). Sentiment Analysis and Subjectivity, Chapter of Handbook of Natural Language Processing, 2nd edition.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Who cares about sarcastic tweets? Investigating the impact of sarcasm on sentiment analysis", "authors": [ { "first": "", "middle": [], "last": "Maynard D", "suffix": "" }, { "first": "M", "middle": [ "A" ], "last": "Greenwood", "suffix": "" } ], "year": 2014, "venue": "Actes de LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "MAYNARD D, GREENWOOD, M.A. (2014). Who cares about sarcastic tweets? Investigating the impact of sarcasm on sentiment analysis. Actes de LREC'2014, Reykjavik, Finlande.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Characterizing microblogs with topic models", "authors": [ { "first": "D", "middle": [], "last": "Ramage", "suffix": "" }, { "first": "S", "middle": [], "last": "Dumais", "suffix": "" }, { "first": "D", "middle": [], "last": "Liebling", "suffix": "" } ], "year": 2010, "venue": "Actes de International AAAI Conference on Weblogs and Social Media", "volume": "5", "issue": "", "pages": "130--137", "other_ids": {}, "num": null, "urls": [], "raw_text": "RAMAGE, D., DUMAIS, S., & LIEBLING, D. (2010). Characterizing microblogs with topic models. Actes de International AAAI Conference on Weblogs and Social Media (Vol. 5, No. 4, pp. 130-137).", "links": null }, "BIBREF18": { "ref_id": "b18", "title": "FrameNet II: Extended theory and practice", "authors": [ { "first": "J", "middle": [], "last": "Ruppenhoffer", "suffix": "" }, { "first": "Petruck", "middle": [ "M" ], "last": "Ellsworth M", "suffix": "" }, { "first": "Johnson", "middle": [ "C" ], "last": "Et Scheffczyk J", "suffix": "" } ], "year": 2005, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "RUPPENHOFFER, J., ELLSWORTH M, PETRUCK M, JOHNSON C., ET SCHEFFCZYK J. (2005). FrameNet II: Extended theory and practice. Technical report, ICSI.", "links": null }, "BIBREF19": { "ref_id": "b19", "title": "Sentiment in Twitter events", "authors": [ { "first": "M", "middle": [], "last": "Thelwall", "suffix": "" }, { "first": "K", "middle": [], "last": "Buckley", "suffix": "" }, { "first": "G", "middle": [], "last": "Et Paltoglou", "suffix": "" } ], "year": 2011, "venue": "Journal of the American Society for Information Science and Technology", "volume": "62", "issue": "2", "pages": "406--418", "other_ids": {}, "num": null, "urls": [], "raw_text": "THELWALL, M., BUCKLEY, K.,ET PALTOGLOU, G. (2011). Sentiment in Twitter events. Journal of the American Society for Information Science and Technology, 62(2), 406-418.", "links": null }, "BIBREF20": { "ref_id": "b20", "title": "Topic sentiment analysis in twitter: a graph-based hashtag sentiment classification approach", "authors": [ { "first": "Wang", "middle": [], "last": "Xiaolong", "suffix": "" }, { "first": "Furu", "middle": [], "last": "Wei", "suffix": "" }, { "first": "Xiaohua", "middle": [], "last": "Liu", "suffix": "" }, { "first": "Ming", "middle": [], "last": "Zhou", "suffix": "" }, { "first": "Ming", "middle": [], "last": "Et", "suffix": "" }, { "first": "", "middle": [], "last": "Zhang", "suffix": "" } ], "year": 2011, "venue": "Actes de CIKM '11", "volume": "", "issue": "", "pages": "1031--1040", "other_ids": {}, "num": null, "urls": [], "raw_text": "WANG XIAOLONG, FURU WEI, XIAOHUA LIU, MING ZHOU, ET MING ZHANG. (2011). Topic sentiment analysis in twitter: a graph-based hashtag sentiment classification approach. Actes de CIKM '11, Bettina Berendt, Arjen de Vries, Wenfei Fan, Craig Macdonald, Iadh Ounis, and Ian Ruthven (Eds.). ACM, New York, NY, USA, 1031-1040.", "links": null }, "BIBREF21": { "ref_id": "b21", "title": "Phrase Dependency Parsing for Opinion Mining. Actes de EMNLP'09, Vol3", "authors": [ { "first": "Yuanbin", "middle": [], "last": "Wu", "suffix": "" }, { "first": "", "middle": [], "last": "Zhang", "suffix": "" }, { "first": "", "middle": [], "last": "Qi", "suffix": "" }, { "first": "Xuanjing", "middle": [], "last": "Huang", "suffix": "" }, { "first": "", "middle": [], "last": "Huang Et", "suffix": "" }, { "first": "Lide", "middle": [], "last": "Wu", "suffix": "" } ], "year": 2009, "venue": "", "volume": "", "issue": "", "pages": "1533--1541", "other_ids": {}, "num": null, "urls": [], "raw_text": "WU, YUANBIN, ZHANG, QI, HUANG, XUANJING, HUANG ET WU, LIDE. (2009). Phrase Dependency Parsing for Opinion Mining. Actes de EMNLP'09, Vol3. Association for Computational Linguistics, Stroudsburg PA, USA, 1533-1541.", "links": null } }, "ref_entries": { "TABREF0": { "type_str": "table", "num": null, "text": "D'un point de vue formel, notre syst\u00e8me de d\u00e9tection d'opinion adopte la repr\u00e9sentation d'une opinion selon le mod\u00e8le propos\u00e9 par[Liu 2010], o\u00f9 une opinion est un pr\u00e9dicat d'arit\u00e9 5 de la forme (oj, fjk, soijkl, hi, ti) avec:Notre syst\u00e8me d'extraction est bas\u00e9 sur un analyseur syntaxique qui fournit pour chaque \u00e9nonc\u00e9 un ensemble de d\u00e9pendances syntaxiques. Celles-ci sont alors r\u00e9interpr\u00e9t\u00e9es pour produire des relations s\u00e9mantiques qui nous servent \u00e0 instancier nos pr\u00e9dicats.", "content": "
[P-Se.1]
CAROLINE BRUN, CLAUDE ROUX
ti est le moment o\u00f9 l'opinion a \u00e9t\u00e9 exprim\u00e9e
aspect fjk
hi d\u00e9signe le locuteur
476
", "html": null }, "TABREF1": { "type_str": "table", "num": null, "text": "]), de tels classifieurs s'\u00e9tant montr\u00e9s performants pour des t\u00e2ches de classification de textes. Pour chaque exp\u00e9rience, la classification est effectu\u00e9e sur le m\u00eame ensemble de donn\u00e9es d'entrainement et de test, extraites de fa\u00e7on al\u00e9atoire du corpus initial, tandis que les r\u00e9sultats sont calcul\u00e9s via une proc\u00e9dure de validation crois\u00e9e en 10 d\u00e9coupages diff\u00e9rents (ten-fold). Le jeu de test correspond \u00e0 10% du corpus initial, et le jeu d'entrainement au 90% restant. Chaque ensemble comprend la m\u00eame distribution de tweets positifs et n\u00e9gatifs. (opinions+hashtags) int\u00e8gre les opinions d\u00e9tect\u00e9es et les hash tags.L'exactitude moyenne observ\u00e9e lors d'une validation crois\u00e9e est estim\u00e9e selon une erreur moyenne quadratique. La table suivante r\u00e9sume le r\u00e9sultat des quatre exp\u00e9riences.", "content": "
Exp\u00e9rience1 (r\u00e9f\u00e9rence) est bas\u00e9 sur l'approche en sac de mots.
Exp\u00e9rience 2 (hash tags) rajoute les hash tags et leur polarit\u00e9
Exp\u00e9rience 3 (opinions) rajoute les opinions d\u00e9tect\u00e9es sans les hash tags
Exp\u00e9rience 4 Exp\u00e9riencesExactitude %
Exp\u00e9rience 1 : sac de mots80,1
Exp\u00e9rience 2 : hash tag82,6
Exp\u00e9rience 3 : opinions80,2
Exp\u00e9rience 4: opinions+hash tags82,2
", "html": null } } } }