Mots clés

Top PDF Mots clés:

Acquisition terminologique pour identifier les mots clés d’articles scientifiques (Terminological acquisition for identifying keywords of scientific articles) [in French]

Acquisition terminologique pour identifier les mots clés d’articles scientifiques (Terminological acquisition for identifying keywords of scientific articles) [in French]

Le défi Fouille de texte 2012 (DEFT2012) a pour objectif d’identifier automatiquement des mots clés choisis par les auteurs d’articles scientifiques dans les Sciences Humaines et Sociales. Une liste de termes constituée des mots clés est fournie dans la tâche 1. Pour participer à ce défi, nous avons choisi d’exploiter des outils dédiés à la constitution de terminologies structurées. Les termes obtenus sont aussi été triés et filtrés à l’aide de leur position, de méthodes de pondération statistiques et de critères linguistiques. Plusieurs configurations de notre système ont été définies. Nous avons obtenu une F-mesure de 0,3985 dans la tâche 1 et de 0,1921 dans la tâche 2. A BSTRACT

8 Read more

Détection de mots clés par approches au grain caractère et au grain mot (Keywords extraction by repeated string analysis) [in French]

Détection de mots clés par approches au grain caractère et au grain mot (Keywords extraction by repeated string analysis) [in French]

La tâche proposée dans le cadre du Défi Fouille de Textes 2012 consiste à retrouver dans des articles de sciences humaines les mots-clés proposés par les auteurs. Le corpus de travail est scindé en deux pistes, la première comportant 140 articles et la seconde 141. Une terminologie qui regroupe tous les mots-clés des articles est proposée avec la première piste. Dans cet article nous proposerons deux approches : une basée sur la connaissance de la terminologie, une autre adaptée à l’absence de cette terminologie. Ce sera pour nous l’occasion de comparer les deux approches et leurs résultats. Nos deux approches s’appuient sur un algorithme de recherche de chaînes répétées maximales, ci-après rst r max 1 . Dans la première approche, basée sur la

8 Read more

Enrichir et raisonner sur des espaces sémantiques pour l’attribution de mots clés (Enriching and reasoning on semantic spaces for keyword extraction) [in French]

Enrichir et raisonner sur des espaces sémantiques pour l’attribution de mots clés (Enriching and reasoning on semantic spaces for keyword extraction) [in French]

La première question s’imposait naturellement du fait qu’une grande partie des mots-clés qui ont été fournis pour la Piste 1 sont en fait des groupes de mots et que leurs catégories morphosyn- taxiques et grammaticales respectait des règles assez simples. Pour pouvoir traiter les mots-clés composés de plusieurs mots, certaines méthodes de représentation de textes en espaces séman- tiques telles que BEAGLE (Jones et Mewhort, 2007), PSI (Cohen et al., 2009), ou encore RRI avec des indexes positionnels (Widdows et Cohen, 2010), permettent d’encoder les informations sur l’ordre des mots. La deuxième question est née du fait que l’on disposait d’informations de nature différentes qui pouvait aider à attribuer correctement des mots-clés : sur la sémantique, sur la distribution des mots-clés, sur la structure, sur les revues dont sont issues les articles ... Ces informations pouvaient être difficilement encodées dans un seul formalisme de décision. Nous avons donc décidé de définir une procédure de décision pour l’attribution de mots-clés qui combine des règles symboliques avec des réseaux bayésiens, avec les Règles de production Probabilistes (Aït-Kaci et Bonnard, 2011).

14 Read more

Participation de l’IRISA à DeFT2012 : recherche d’information et apprentissage pour la génération de mots clés (IRISA participation to DeFT2012: information retrieval and machine learning for keyword generation) [in French]

Participation de l’IRISA à DeFT2012 : recherche d’information et apprentissage pour la génération de mots clés (IRISA participation to DeFT2012: information retrieval and machine learning for keyword generation) [in French]

Le système de recherche d’information que nous avons implémenté pour cette tâche repose sur des techniques standard du domaine de la RI. Nous avons en particulier utilisé un modèle vectoriel et testé différents types de pondérations. Dans ce type de modèle, chaque document est représenté comme un sac de mots. Les mots outils sont ôtés à l’aide d’un anti-dictionnaire (stop-list). Avec une telle représentation, un document contenant la phrase « le président du parti vote contre la proposition » sera représenté par { président, parti, proposition, vote }. Il faut noter que la phrase « le parti du président vote pour la proposition » obtient la même représentation. Cette déséquencialisation du texte ne permet donc pas de prendre en compte les termes complexes qui permettraient ainsi de distinguer parti du président et président du parti. Pour les besoins du défi, nous ajoutons donc à cette description classique les termes complexes extraits par TermoStat.

12 Read more

Etude sémantique des mots clés et des marqueurs lexicaux stables dans un corpus technique (Semantic Analysis of Keywords and Stable Lexical Markers in a Technical Corpus) [in French]

Etude sémantique des mots clés et des marqueurs lexicaux stables dans un corpus technique (Semantic Analysis of Keywords and Stable Lexical Markers in a Technical Corpus) [in French]

Les cooccurrents de premier et de deuxième ordre sont considérés au niveau des formes graphiques, ce qui permet de faire la distinction entre, par exemple, pièce usinée (« résultat ») et pièce à usiner (« avant le processus d’usinage ») et dès lors de tenir compte de la différence sémantique. La mesure d’association utilisée pour déterminer les cooccurrents statistiquement pertinents est la mesure statistique du LLR (log du rapport de vraisemblance). Le seuil de significativité très sévère (valeur p<0,0001) permet de relever uniquement les cooccurrents de premier et de deuxième ordre sémantiquement pertinents. La mesure de recoupement est concrétisée à l’aide de scripts en Python pour calculer le degré de recoupement des 4717 mots-clés à partir du recoupement formel de leurs cooccurrents de deuxième ordre. Ce degré de recoupement ou d’homogénéité sémantique permet de situer les 4717 mots-clés sur un continuum d’homogénéité sémantique ou de monosémie et permet de leur accorder un rang de monosémie. Comme nous ne disposons pas de listes de sens préétablis, ni d’autres mesures sémantiques comparables, nous avons procédé à une validation manuelle de la mesure de recoupement à partir de l’analyse manuelle des cooccurrents les plus pertinents, ainsi qu’à une validation externe au moyen de dictionnaires. Les résultats de ces validations confirment les résultats de notre mesure de recoupement pour un échantillon de 50 mots-clés. Il est à noter que des recherches supplémentaires s’imposent pour examiner la relation précise entre, d’une part, notre mesure de monosémie, implémentant la monosémie en termes d’homogénéité sémantique, et, d’autre part, ce que l’on considère traditionnellement comme monosémie ou polysémie. Nous recourons à cette mesure, dans le but opérationnel de développer un critère mesurable. Sans recherches supplémentaires, il serait impossible d’affirmer que les degrés de monosémie calculés correspondent parfaitement à ce que les terminologues traditionnels considèrent comme monosémie ou polysémie. Notons toutefois que ces derniers omettent de fournir des critères opérationnels à ce sujet.

14 Read more

Les chroniques : étude exploratoire d’un genre d’écriture (très) populaire sur le net

Les chroniques : étude exploratoire d’un genre d’écriture (très) populaire sur le net

La dénomination « chronique » fournit un affichage générique qui contribue à rendre le récit visible dans la profusion des écrits de la toile, lui permet d’y prendre place dans un espace (para) littéraire clairement identifié et donne un « statut » à son autrice qui devient de facto une « chroniqueuse ». La rapidité avec laquelle semble s’être imposée cette dénomination doit probablement aussi être reliée à la logique des moteurs de recherche qui pousse celui qui veut être retrouvé dans les fils de la toile à anticiper le repérage de son texte par mots clés, l’appartenance à un genre constituant, pour toute production artistique, une des premières formes d’étiquetage possibles. Bien sûr, le fait qu’un nom de genre empirique - en l’occurrence ici celui de « chronique » - se soit imposé au sein d’une communauté discursive ne suffit pas à garantir qu’il désigne bien un et un seul genre. Les noms génériques peuvent fonctionner comme des « leurres » (Mourlhon-Dhalies, 2007 : 20) et on a parfois tendance à qualifier de « nouvelle » toute forme de production textuelle encore non-étiquetée sur internet sans forcément voir qu’elle peut être inscrite dans des genres qui se sont développés bien avant, en dehors de la toile.

24 Read more

Gestion De Rendement Des Equipements Miniers

Gestion De Rendement Des Equipements Miniers

Certains pratiquants classifient les délais au cours des opérations dans la classes de temps d’attente, d’autres parlent des temps de changements de poste en terme de standby. Dans cet article nous définissons de manière pratique tous les termes entrant en ligne de compte dans la détermination de la disponibilité, de l’utilisation, du fonctionnement et de l’efficacité des équipements miniers. Nous donnons aussi une méthode très simple d’enregistrement des données nécessaires à leurs déterminations. Nous donnons une brève méthode de traitement accessible à tous et disponible sans trop de peine à tous les pratiquants de l’industrie minière pour la détermination des différents taux nécessaire à la gestion des machines minières. Mots clés : Disponibilité, Utilisation, fonctionnement, efficacité, maintenance, Taux.

16 Read more

Participation du LINA à DEFT2012 (LINA at DEFT2012) [in French]

Participation du LINA à DEFT2012 (LINA at DEFT2012) [in French]

Ce système est basé sur une approche par classification supervisée. La tâche d’extraction de mots clés est ici considérée comme une tâche de classification binaire. La première étape consiste à générer tous les mots clés candidats à partir du document. Pour ce faire, nous commençons par extraire tous les n-grammes de mots jusqu’à n = 4. Des contraintes syntaxiques sont ensuite utilisées pour filtrer les candidats. Ainsi, seuls les n-grammes composés uniquement de noms, d’adjectifs et de mots outils (excepté en premier/dernier mot du n-gramme) sont gardés. Pour chaque candidat, nous calculons les traits suivants :

8 Read more

Part of Speech Tagging for New Words (Étiquetage morpho syntaxique pour des mots nouveaux) [in French]

Part of Speech Tagging for New Words (Étiquetage morpho syntaxique pour des mots nouveaux) [in French]

Les outils d’étiquetage morphosyntaxique procèdent par apprentissage automatique à partir d’un corpus annoté manuel- lement. De fait, ils sont plus ou moins robustes en ce qui concerne l’étiquetage de mots inconnus, non rencontrés dans le corpus d’apprentissage. Cette problématique nous intéresse tout particulièrement dans le cadre de l’identification de néo- logismes formels, c’est-à-dire les nouvelles formes qui apparaissent quotidiennement. En effet, la catégorie grammaticale constitue un critère important à la fois pour l’identification et la documentation de ce type de néologismes.

6 Read more

Rôle de la morphologie chez les enfants dyslexiques : étude des effets d'un entraînement morphologique

Rôle de la morphologie chez les enfants dyslexiques : étude des effets d'un entraînement morphologique

 Dans la première hypothèse, les mots complexes pour être identifiés doivent être décomposés en leurs constituants morphémiques. C’est l’hypothèse de la décomposition morphologique pré-lexicale (Taft et Forster, 1975) où l’entrée lexicale d’un mot morphologiquement complexe dérivé correspond à la racine de la famille morphologique. Ainsi, tous les éléments d’une même famille morphologique possèdent le même code d’accès. Pour localiser l’entrée lexicale associée à un mot morphologiquement complexe, le sujet doit effectuer une procédure de décomposition morphologique pré-lexicale qui consisterait à ôter l’affixe et à coder seulement la racine du mot. Par exemple, pour le mot refaire le préfixe re serait mis de côté et la recherche serait effectuée sur la racine faire. Une fois celle-ci localisée, un test de compatibilité entre re et faire serait effectué afin de valider la combinaison refaire. Ce type de modèle permet d’expliquer très facilement la compréhension de mots nouveaux puisque les items présentés au système sont décomposés avant toute recherche dans le lexique. A partir du moment où les morphèmes sont connus du sujet, l’apparition d’une combinatoire nouvelle n’entraîne aucun problème.

18 Read more

Search and Visualization of Semantically Related Words (Recherche et visualisation de mots sémantiquement liés) [in French]

Search and Visualization of Semantically Related Words (Recherche et visualisation de mots sémantiquement liés) [in French]

Nous avons calculé pour chacun des 47 mots la précision moyenne pour ses k premières relations. La figure 2 montre le résultat de l’évaluation. Pour la mesure Efreq, la précision moyenne, indiquée par le petit carré blanc, varie entre 0,628 (première relation de chacun des 57 mots) et 0,550 (30 premières relations), pour un accord inter-annotateurs (kappa de Fleiss) allant de « substantiel » (0,6-0,8) à « modéré » (0,4-0,6). Pour la mesure Efreq-Rnum-Cfreq-Pnum, la précision moyenne varie de 0,633 (5 premières relations) à 0,592 (30 premières relations), pour un kappa allant de 0,609 à 0,524. Un test t pour échantillons appariés révèle que la mesure Efreq-Rnum-Cfreq-Pnum améliore de façon significative les résultats pour k = 25 (t : 2,131 ; P : 0,0192) et pour k = 30 (t : 2,9 ; P : 0,0028) ; l’amélioration n’est pas significative pour les autres valeurs de k. Parmi les 47 mots issus du Monde, les mots les plus concrets (« baleine », « laboratoire », « kératine ») ont le plus de relations estimées correctes, tandis que les mots les plus abstraits (« ampleur », « conclusion ») n’ont que très peu de relations jugées exactes. Dans un second temps, nous avons extrait de la dernière version des données lexicales de JeuxDeMots 9 1 318 479 paires de mots liés sémantiquement. Nous avons comparé ces paires

8 Read more

Towards an automatic identification of chiasmus of words (Vers une identification automatique du chiasme de mots) [in French]

Towards an automatic identification of chiasmus of words (Vers une identification automatique du chiasme de mots) [in French]

Cette recherche porte sur le chiasme de mots : figure de style jouant sur la réversion (ex. « Bonnet blanc, blanc bonnet »). Elle place le chiasme dans la problématique de sa re- connaissance automatique : qu’est-ce qui le définit et comment un ordinateur peut le trouver ? Nous apportons une description formelle du phénomène. Puis nous procédons à la constitution d’une liste d’exemples contextualisés qui nous sert au test des hypothèses. Nous montrons ainsi que l’ajout de contraintes formelles (contrôle de la ponctuation et omission des mots vides) pénalise très peu le rappel et augmente significativement la précision de la détection. Nous montrons aussi que la lemmatisation occasionne peu d’erreurs pour le travail d’extraction mais qu’il n’en est pas de même pour la racinisation. Enfin nous mettons en évidence que l’utilisation d’un thésaurus apporte quelques résultats pertinents.

14 Read more

Multilingual Compound Splitting (Segmentation Multilingue des Mots Composés) [in French]

Multilingual Compound Splitting (Segmentation Multilingue des Mots Composés) [in French]

La composition est un phénomène fréquent dans plusieurs langues, surtout dans des langues ayant une morphologie riche. Le traitement des mots composés est un défi pour les systèmes de TAL car pour la plupart, ils ne sont pas présents dans les lexiques. Dans cet article, nous présentons une méthode de segmentation des composés qui combine des caractéristiques indépendantes de la langue (mesure de similarité, données du corpus) avec des règles de transformation sur les frontières des composants spécifiques à une langue. Nos expériences de segmentation de termes composés allemands et russes montrent une exactitude jusqu’à 95 % pour l’allemand et jusqu’à 91 % pour le russe. Nous constatons que l’utilisation de corpus spécialisés relevant du même domaine que les composés améliore la qualité de segmentation.

8 Read more

Les mots et les choses : the obscenity of Pierre Bayle

Les mots et les choses : the obscenity of Pierre Bayle

To this basic line of defence, Bayle adds three specific precautions that he had taken to avoid charges of indecency. First, wherever he had spoken in his own voice, Bayle had avoided ‘les mots et les expressions qui choquent la civilité et la bienséance commune.’ Here he introduces a distinction of genre and authorial persona: some words would be too coarse in the mouth of a preacher, but they would not be inappropriate in a work on medicine. As for authors of historical dictionaries: they may use whatever words they like, so long as they remain within the bounds of ‘la civilité ordinaire’. This may seem a vague line to draw, but Bayle adds a concrete rule of thumb: ‘Ils se doivent servir hardiment de tous les mots qui se trouvent dans le Dictionnaire de l'Académie Françoise, ou dans celui de Furetière, à moins que l’on n’y soit averti que ce sont des mots odieux, sales, et vilains.’ 47 (Let me pause here to say that this is not quite Bayle’s practice:

50 Read more

Les mots de l'expérience ou l'expérience des mots  Lire pour écrire des récits de fiction à l'école élémentaire française

Les mots de l'expérience ou l'expérience des mots Lire pour écrire des récits de fiction à l'école élémentaire française

Parmi ces outils figurent également des pages du dictionnaire des synonymes [Annexe B] proposant des formulations différentes destinées à varier l’expression, mais aussi à en préciser les nuances en fonction de la situation d’énonciation, des registres de langue et des effets de style recherchés. Ces « réservoirs de synonymes » offrent des ressources portant aussi bien sur les verbes introducteurs de discours, que les verbes de mouvement, ou les adjectifs qualificatifs permettant de caractériser les per- sonnages et de planter le décor en favorisant l’expression des nuances permises par les choix proposés. Dire ou rétorquer n’a pas le même sens ; l’usage de tel ou tel mot n’a pas le même effet sur la clarifi- cation de l’intention que le scripteur prête au personnage à qui il donne vie par les mots qu’il lui prête.

9 Read more

Quelles conceptions du « changement climatique » en France et en Norvège ? Résultats de deux enquêtes

Quelles conceptions du « changement climatique » en France et en Norvège ? Résultats de deux enquêtes

Le changement climatique est un phénomène extrêmement complexe, de nature globale mais souvent vécu localement, et qui, en effet, est passé d’un phénomène principalement physique à un phénomène social, culturel, politique, éthique – et communicationnel (Comby 2015 ; Hulme 2009, 2013 ; Leiserowitz 2007 ; Nerlich et al. 2010 ; Moser 2016 ; Zaccai et al. 2012). Dans les nombreux débats qui se déroulent sur différentes arènes, on observe une multitude de points de vue, de valeurs, d’intérêts et de visions du monde liés au changement climatique. Bien des acteurs cherchent à lancer des défis, à formuler les questions-clés et à décider des priorités d’action. Ce mélange de perspectives différentes devient un défi particulier quand il s’agit d’aborder la question de solutions et de s’attaquer aux conséquences du changement climatique, celles-ci nécessitant des actions politiques aussi bien qu’individuelles (Tvinnereim et al. 2017). Au sein de ces questions se trouvent les conceptions mêmes du phénomène et les perceptions de risques qu’en ont les citoyens. Leurs conceptions peuvent varier d’un pays à un autre, d’une culture à une autre. Dans le présent article, j’aborderai les perceptions

14 Read more

Les philosophes de l'exil républicain espagnol de 1939 : autour de José Bergamín, Juan David García Bacca et María Zambrano (1939 1965)

Les philosophes de l'exil républicain espagnol de 1939 : autour de José Bergamín, Juan David García Bacca et María Zambrano (1939 1965)

Faire des Constellations, c’est pour l’esprit humain une activité tranquillisante, fût-ce pour de simples hommes, de nature plus tangiblement animale et héroïque que les célestes ; ou de la lignée des philosophes, apparue avec Parménide et culminant en Hegel, en passant par Aristote. Faire des Systèmes, c’est l’occupation et la profession à la fois religieuse et scientifique des astronomes (eux-mêmes précédés, des millénaires durant, des sages et des mages) et l’apanage de la modernité, qu’elle soit poétique avec Mallarmé ou logique avec Russell et Whitehead, ou encore scientifique avec Einstein. L’évolution « logique » fait que les mots en phase de nébuleuse – par exemple, les mots que Parménide emploie dans son Poème (1984, 22) – tendent à se recentrer au fil des siècles, pour former un concept : « ce qui importe pour notre sujet se cristallise dans l’expression : le concept de Nécessité et celui de Hasard – le, en tant qu’il a été défini et conceptualisé » 151 (1984, 22). Dans « Un coup de dés jamais n’abolira le Hasard », autre poème – cela a son importance – qui, sous la plume de García Bacca, fait pendant à l’œuvre de Parménide, Mallarmé réaffirme dans un retournement complet de la tradition rationaliste européenne les droits du Hasard – seul capable de défier la toute- puissante Nécessité –, si bien que dans la dernière partie de l’ouvrage, l’activité créatrice de l’esprit s’assimile au jeu, comme dans les premiers temps, et par conséquent à la poésie : « le cœur du langage, c’est la poésie, la littérature. Le langage palpite en elle […] 152 . Dans ce qui reste, ce qu’il y a de superflu dans le langage, le langage ne

552 Read more

Indexation libre et contrôlée d’articles scientifiques  Présentation et résultats du défi fouille de textes DEFT2012 (Controlled and free indexing of scientific papers  Presentation and results of the DEFT2012 text mining challenge) [in French]

Indexation libre et contrôlée d’articles scientifiques Présentation et résultats du défi fouille de textes DEFT2012 (Controlled and free indexing of scientific papers Presentation and results of the DEFT2012 text mining challenge) [in French]

Dans cet article, nous présentons la campagne 2012 du défi fouille de texte (DEFT). Cette édition traite de l’indexation automatique par des mots-clés d’articles scientifiques au travers de deux pistes. La première fournit aux participants la terminologie des mots-clés employés dans les documents à indexer tandis que la seconde ne fournit pas cette terminologie, rendant la tâche plus complexe. Le corpus se compose d’articles scientifiques parus dans des revues de sciences humaines, indexés par leurs auteurs. Cette indexation sert de référence pour l’évaluation. Les résultats ont été évalués en termes de micro-mesures sur les rappel, précision et F-mesure calculés après lemmatisation de chaque mot-clé. Dans la piste fournissant la terminologie des mots-clés employés, la F-mesure moyenne est de 0,3575, la médiane de 0,3321 et l’écart-type de 0,2985 ; sur la seconde piste, en l’absence de terminologie, la F-mesure moyenne est de 0,2055, la médiane de 0,1901 et l’écart-type de 0,1516.

14 Read more

Brisset Antoine memoire SEO Black Hat pdf

Brisset Antoine memoire SEO Black Hat pdf

hiérarchisé (donc d’utiliser le balisage sémantique) et de créer un menu de navigation en « dur » de façon à ce que Google puisse suivre facilement suivre ses liens. De même, il est stipulé qu’il est important de placer dans le contenu les mots-clés qui, d’après nous, sont recherchés par les internautes. On le voit, Google n’encourage pas l’utilisation de son générateur de mots-clés, qu’il réserve aux utilisateurs de sa plate-forme Adwords. Google recommande également la création d’un plan de site, néanmoins nous pouvons nous interroger sur son utilité depuis que le protocole sitemap est apparu. En outre, Google réaffirme l’importance de créer des blocs de contenu pour les éléments importants d’un site, et d’éviter le surplus d’éléments graphiques. Il semblerait que Google attache de plus en plus de poids à l’application de cette recommandation, en témoigne la prise en compte de la vitesse de chargement des pages dans son algorithme. Cela ne va d’ailleurs pas sans susciter, parfois, des réactions négatives de la part de certains bloggeurs et de webdesigners. Dans un billet intitulé « Google "dégueulasse"-t-il le web » 38 , Sebastien Billard rappelle pourtant que les moteurs de recherche sont conçus pour indexer du texte codé dans un langage simple et accessible, le HTML. C’est pourquoi leurs consignes vont dans le sens d’une construction avant tout éditoriale de chaque site web.

98 Read more

Google Hacking pdf

Google Hacking pdf

Les messages électroniques, qu’ils soient de nature privée ou professionnelle, constituent une mine d’information très importante à propos des individus qui les échangent. Par la lecture de messages ou de boites aux lettres complètes, il est possible d’obtenir des renseignements concernant l’entourage, les loisirs, l’environnement de travail, les projets en cours, … Toutes ces informations récoltées peuvent ensuite servir à des attaques de type « Social Engineering ». De nombreux mails ou boites aux lettres sont disponibles sur Internet. Des requêtes couplant l’opérateur « filetype: » avec des mots clés contenus dans les en-têtes SMTP (From, Subject, Received, Message-ID, …) permettent d’effectuer des recherches relativement efficaces. A titre d’exemple la requête « filtype:eml eml intext:subject intext:From » permet de rechercher des messages sauvegardés au format Outlook. Obtenir des adresses électroniques valides correspondant à des employés d’une société en interrogeant la base des groupes de discussions (ex @societe.com) est aisée. Il est alors possible d’exploiter ces adresses pour envoyer des e-mails contenant des programmes malveillants afin de dérober toute sorte d’informations. L’obtention d’un grand nombre d’adresses valides peut être facilitée par l’utilisation de scripts perl.

5 Read more

Show all 118 documents...