SHS

Logiciels (logiciels libres en majorité) ou ressources (liées aux logiciels) utiles aux chercheurs et enseignants dans le domaine des Sciences Humaines et Sociales (SHS)
Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 30/09/13
  • Correction mineure : 30/09/13
Mots-clés

Gramlab : plate-forme d'outils collaboratifs pour des traitements linguistiques

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Site web
  • Système : UNIX-like, Windows, MacOS X
  • Licence(s) : Apache License - v 2.0
  • Etat : diffusé, stable
  • Support : maintenu, développement en cours
  • Concepteur(s) : Consortium Gramlab
  • Contact concepteur(s) : gramlab@kwaga.com ou www.gramlab.org/en/programme-beta.html
  • Laboratoire(s), service(s)... : LIGM, Actimos, APIL, Aproged, CENTAL (Université catholique de Louvain), Kwaga, Lingway, Qwam Content Intelligence

 

Fonctionnalités générales du logiciel

Le système GramLab étend Unitex pour offrir aux équipes des outils facilitant le travail collaboratif (partage de ressources, suivi de versions, etc.) dans les traitements linguistiques. Ces outils reposent sur des technologies de type « automates à états finis » et incorporent des ressources linguistiques à large couverture, disponibles dans de nombreuses langues.

Les packages qui composent Gramlab sont disponibles sur la forge Google :

Les sources d'Unitex sont disponibles sur le site à l'Université de Marne-la-Vallée : http://igm.univ-mlv.fr/~unitex/, voir aussi la fiche PLUME sur Unitex.

Outils et fonctionnalités

  • Intégrabilité dans une chaîne UIMA (Unstructured Information Management Architecture)
  • Gestion de versions des ressources linguistiques
  • Outils de maintenance des grammaires
  • Outils de partage de ressources linguistiques
  • Gestion de projets
  • Auto-graph : création automatique de graphes de grammaires
  • Plate-forme multilingue
Contexte d’utilisation du logiciel

Ce système a été développé pour le projet FEDER Gramlab et il s'agit d'un projet labellisé CapDigital.

La mise à disposition de GramLab/Unitex sous la forme d'un annotateur UIMA donne la possibilité à des informaticiens non spécialistes du Traitement Automatique des Langues (TAL) d'ajouter une composante linguistique au sein d'une chaîne de traitements.

Pour faciliter la prise en main par les développeurs de l’annotateur Unitex-UIMA, un exemple d’intégration est fourni (https://code.google.com/p/gramlab-unitex-cpp-annot...).

Publications liées au logiciel
Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 22/09/13
  • Correction mineure : 22/09/13
Mots-clés

R.TeMiS : création et analyse de corpus de textes sous R

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Site web
  • Système : UNIX-like, Windows, MacOS X
  • Version actuelle : 0.6.2 - 27-08-2013
  • Licence(s) : GPL
  • Etat : diffusé, stable
  • Support : maintenu, développement en cours
  • Concepteur(s) : Milan Bouchet-Valat et Gilles Bastin
  • Contact concepteur(s) : nalimilan@club.fr
  • Laboratoire(s), service(s)... : INED, LSQ-CREST, OSC, PACTE

 

Une fiche logiciel décrit plus en détail ce développement, consultez la pour plus d’informations : R.TeMiS
Fonctionnalités générales du logiciel

R.TeMiS (R Text Mining Solution) est un environnement graphique de travail sous R permettant de créer, manipuler et analyser des corpus de textes, qu'ils soient constitués d'articles de presse, de réponses à une question ouverte, d'entretiens ou encore de textes issus de la Toile. Il prend actuellement en charge les méthodes d'analyse de données textuelles, tout en facilitant l'importation de corpus depuis des sources informatisées (Factiva, Twitter).

Contexte d’utilisation du logiciel

Utilisé par des chercheurs de diverses institutions mais aussi dans le cadre d'enseignements (Université Paris VII - Diderot et ENSAI) et de l'encadrement de mémoires d'étudiants (Sciences Po Grenoble).

Publications liées au logiciel

Bouchet-Valat, Milan ; Bastin, Gilles, « RcmdrPlugin.temis, a Graphical Integrated Text Mining Solution in R », dans The R Journal, 5 (1), 2013, p. 188-196. article

Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 30/07/13
  • Correction mineure : 30/07/13
Mots-clés

Distagger : reconnaissance de disfluences dans des transcriptions orales

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Système : UNIX-like, Windows, MacOS X
  • Version actuelle : 1.0 - janvier 2011
  • Licence(s) : LGPL
  • Etat : diffusé en beta
  • Support : maintenu, sans développement en cours
  • Concepteur(s) : Matthieu Constant
  • Contact concepteur(s) : mconstan @ univ-mlv.fr
  • Laboratoire(s), service(s)... : LIGM

 

Fonctionnalités générales du logiciel

Distagger permet de repérer les disfluences dans des transcriptions orales. Il est développé en Java.

Contexte d’utilisation du logiciel

Distagger est utilisé pour effectuer des prétraitements avant l'application d'analyseurs linguistiques (étiqueteurs, analyseurs syntaxiques) sur des transcriptions orales. Il sert aussi à des travaux pratiques dans un cours de traitement automatique des langues.

Publications liées au logiciel

Matthieu Constant and Anne Dister. Automatic detection of disfluencies in speech transcriptions. Spoken Communication. Massimo Pettorino, Antonella Giannini, Isabella Chiari, Francesca M. Dovetto (Eds.). Cambridge Scholars Publishing, 2010. pp. 259–272.

Matthieu Constant and Anne Dister. Les disfluences dans les mots composés. Journées sur l'Analyse des Données Textuelles 2012 (JADT'12).

Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 30/07/13
  • Correction mineure : 30/07/13
Mots-clés

LGTagger : étiqueteur grammatical réaliste incluant la reconnaissance de mots composés

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Site web
  • Système : UNIX-like
  • Version actuelle : 1.1 - 13/02/2013
  • Licence(s) : LGPL
  • Etat : diffusé, stable
  • Support : maintenu, développement en cours
  • Concepteur(s) : Matthieu Constant
  • Contact concepteur(s) : mconstan @ univ-mlv.fr
  • Laboratoire(s), service(s)... : LIGM

 

Fonctionnalités générales du logiciel

LGTagger permet d'étiqueter grammaticalement un texte tout en repérant les mots composés. Il est basé sur des ressources lexicales riches et des champs aléatoires markoviens.

Contexte d’utilisation du logiciel

LGTagger sert à faire des prétraitements pour différents analyseurs syntaxiques.

Publications liées au logiciel

Matthieu Constant and Anthony Sigogne. MWU-aware Part-of-Speech Tagging with a CRF model and lexical resources. ACL Workshop on Multiword Expressions: from Parsing and Generation to the Real World 2011 (MWE'11).

Matthieu Constant and Isabelle Tellier. Evaluating the Impact of External Lexical Resources into a CRF-based Multiword Segmenter and Part-of-Speech Tagger. 8th International Conference on Language Resources and Evaluation 2012 (LREC'12).

Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 30/07/13
  • Correction mineure : 30/07/13
Mots-clés

LGExtract : générateur de lexiques syntaxiques à partir des tables du lexique-grammaire

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Site web
  • Système : UNIX-like, Windows, MacOS X
  • Version actuelle : 3.4 - mars 2011
  • Licence(s) : LGPL
  • Etat : diffusé, stable
  • Support : maintenu, sans développement en cours
  • Concepteur(s) : Matthieu Constant, Elsa Tolone
  • Contact concepteur(s) : mconstan @ univ-mlv.fr
  • Laboratoire(s), service(s)... : LIGM

 

Fonctionnalités générales du logiciel

LGExtract permet de convertir les tables du lexique-grammaire en lexiques syntaxiques structurés en XML. Il est développé en Java.

Contexte d’utilisation du logiciel

LGExtract est utilisé pour générer des lexiques syntaxiques exploitables par des analyseurs syntaxiques. Il a servi à produire le lexique LGLex de verbes simples, de noms prédicatifs, d'expressions figées et d'adverbes en français.

Publications liées au logiciel

Matthieu Constant et Elsa Tolone. A generic tool to generate a lexicon for NLP from Lexicon-Grammar tables. In Michele De Gioia (editor), Actes du 27e Colloque international sur le lexique et la grammaire (L'Aquila, 10-13 septembre 2008). Seconde partie, volume 1 de Lingue d'Europa e del Mediterraneo, Grammatica comparata, pp. 79-93. Aracne, avril 2010. ISBN 978-88-548-3166-7.

Elsa Tolone, Analyse syntaxique à l'aide des tables du Lexique-Grammaire du français, thèse de doctorat, Université Paris-Est, mars 2011 (345 pp.).

Fiche dév Ens Sup - Recherche
  • Création ou MAJ importante : 15/07/13
  • Correction mineure : 15/07/13
Mots-clés

R2STATS : interface graphique sous R pour tester et comparer des GLM(M)

Ce logiciel a été développé (ou est en cours de développement) dans la communauté de l'Enseignement Supérieur et de la Recherche. Son état peut être variable (cf champs ci-dessous) donc sans garantie de bon fonctionnement.
  • Site web
  • Système : UNIX-like, Windows, MacOS X
  • Licence(s) : GPL
  • Etat : diffusé, stable
  • Support : maintenu, sans développement en cours
  • Concepteur(s) : Yvonnick Noël
  • Contact concepteur(s) : yvonnick.noel@univ-rennes2.fr
  • Laboratoire(s), service(s)... : Univ Rennes 2

 

Fonctionnalités générales du logiciel

Ce logiciel est un package pour l'environnement de calcul R. Il propose une interface graphique pour tester rapidement des GLM (ANOVA, régression, ANCOVA, régression logistique, Gamma ou Poisson), avec ou sans effets aléatoires, pour les comparer entre eux (par Chi2 de vraisemblance, F de Fisher ou critères d'information type AIC, BIC).

Un des intérêts est que des tests additionnels, quand ils sont nécessaires, sont produits automatiquement (test de normalité, d'homogénéité des variances) et que les graphiques sont automatiques. On bascule d'un graphique à l'autre en un clic sur le nom du modèle, et on visualise donc immédiatement ce qu'un modèle apporte de plus par rapport à un autre.
Cette interface est utile par exemple en contexte d'enseignement avec des étudiants à l'université.

Contexte d’utilisation du logiciel

Le logiciel a été développé initialement pour les étudiants en sciences humaines, afin de faciliter leur assimilation des GLM (Generalized Linear Models) / GLMM (Generalized Linear Mixed Models) et de leur usage. Mais l'interface peut-être utilisée pour la recherche elle-même et les études appliquées, tant que la modélisation entre dans le cadre des GLM (avec ou sans effets aléatoires).

Fiche logiciel validé
  • Création ou MAJ importante : 10/06/13
  • Correction mineure : 22/09/13
Mots-clés
Pour aller plus loin
  • Mots-clés principaux : corpus

R.TeMiS : création et analyse de corpus de textes sous R

Une fiche Dév Ens Sup est en relation avec cette fiche, consultez-la pour plus d'informations : R.TeMiS
Description
Fonctionnalités générales

R.TeMiS (R Text Mining Solution) est un environnement graphique de travail sous R permettant de créer, manipuler et analyser des corpus de textes, qu'ils soient constitués d'articles de presse, de réponses à une question ouverte, d'entretiens ou encore de textes issus de la Toile. Il prend actuellement en charge les méthodes d'Analyse de données textuelles, tout en facilitant l'importation de corpus depuis des sources informatisées (Factiva, Twitter).

R.TeMiS a été conçu pour limiter les effets de « boîte noire » liés à l'utilisation de certains logiciels propriétaires dédiés à l'analyse de textes peu flexibles et dont les techniques utilisées ne sont pas toujours documentées. Il vise ainsi à favoriser la réflexivité dans l’usage sociologique des données textuelles.

Fonctions actuellement prises en charge :

  • Importation du corpus :
    • Fichiers texte brut (.txt) stockés dans un dossier.
    • Fichier tableur de divers types (voir ci-dessous).
    • Fichier XML et HTML Factiva.
    • Recherche Twitter.
  • Construction du corpus (i.e ensemble de documents) :
    • Découpage des textes longs en documents (i.e ensemble de termes).
    • Suppression optionnelle des chiffres, des mots vides et de la ponctuation.
    • Extraction optionnelle des radicaux des mots (racinisation)
    • Sélection de documents à partir de termes ou de variables.
    • Choix ou exclusion de certains termes.
    • Recodage d'une variable temporelle.
  • Statistiques descriptives sur les variables associées aux documents :
    • Tri à plat et tri croisé.
    • Évolution temporelle du nombre de documents.
  • Statistiques lexicales :
    • Nombre de mots, diversité du vocabulaire, nombre de hapax, longueur des mots.
    • Table de dissimilarité du vocabulaire.
    • Fréquence de termes.
    • Termes les plus caractéristiques de modalités d'une variable.
    • Termes co-occurrents.
    • Évolution temporelle des occurrences d'un terme.
  • Analyse des correspondances (sur tableau lexical entier ou agrégé).
  • Classification ascendante hiérarchique (sur tableau lexical entier ou à partir des axes de l'analyse des correspondances).
  • Toutes les fonctions produisent des graphiques (exportables dans une variété de formats) et les résultats sont
    facilement exportables dans un rapport au format HTML.
Interopérabilité

Les corpus peuvent être importés sous forme de textes bruts (.txt) ou de fichiers de type tableur dans de nombreux formats : CSV (valeurs séparées par des virgules), TSV (valeurs séparées par des tabulations), Open Document (LibreOffice et OpenOffice), Microsoft Excel, dBase, SPSS, SAS, Minitab et STATA.

Les graphiques peuvent être exportés dans les formats (image ou vectoriels) les plus courants, dont le PNG, le SVG, le PostScript et le WMF. Tous les formats ne sont pas disponibles dans tous les OS.

Contexte d'utilisation dans mon laboratoire/service

Bien que récent, ce logiciel a déjà été utilisé par des chercheurs de l'INED dans le cadre de formations universitaires. Il sera bientôt utilisé pour des études d'entretiens et pour d'autres cours. Son intérêt est de proposer un équivalent à des fonctions offertes dans des logiciels propriétaires fort coûteux, ne fonctionnant que sous Windows, et n'étant pas installables sur les postes d'étudiants ou de chercheurs étrangers.

Limitations, difficultés, fonctionnalités importantes non couvertes

Ne couvre pas exactement la méthode utilisée par le logiciel de statistique textuelle (Alceste) : voir dans ce cas le logiciel libre Iramuteq.

Un terme identifié comme mot vide ne correspond pas toujours à un mot-outil.

Le logiciel permet de visualiser la racinisation effectuée, mais il serait souhaitable de pouvoir la modifier si nécessaire. Le logiciel ne permet actuellement pas de créer un dictionnaire/thésaurus personnel, et ne prend pas en charge la lexémisation.

Environnement du logiciel
Logiciels connexes
  • R : intégré à R, R.TeMiS génère du code R directement visible, qui est modifiable et peut éventuellement être étendu
  • R Commander : R.TeMiS est un greffon pour R Commander
Autres logiciels aux fonctionnalités équivalentes
  • Iramuteq (licence GPL) : interface de R pour le traitement de textes et de questionnaires
  • DtmVic (gratuit) : traitement des enquêtes comportant des questions ouvertes
  • TXM (composants modulaires open-source) : plateforme combinant des techniques d'analyse de grands corpus de textes
  • Alceste (propriétaire)
  • Lexico (propriétaire)
  • Spad (propriétaire)
  • SAS (propriétaire)
  • NVivo (propriétaire)
Environnement de développement
Type de structure associée au développement

Les deux auteurs sont respectivement doctorant au Laboratoire de sociologie quantitative (LSQ-CREST) et maître de conférences en sociologie à Sciences Po Grenoble.

Eléments de pérennité

Contrairement aux logiciels propriétaires d'analyse textuelle, R.TeMiS réutilise au maximum les fonctions statistiques générales déjà développées dans R et dans ses paquets (importation et traitement des corpus, graphiques, séries temporelles, analyse des correspondances, classification...). L'interface est en grande partie fournie par le paquet R Commander. R.TeMiS bénéficie donc du travail de très nombreux chercheurs maîtrisant très bien les techniques utilisées, et n'a pas de raison de disparaître tant que l'écosystème R fonctionne.

Environnement utilisateur
Liste de diffusion ou de discussion, support et forums
Documentation utilisateur

Tutoriel en français

On peut noter la pauvreté des documents et tutoriels et le fait que l'aide intégrée est en anglais, mais une forte intuitivité du logiciel.

Divers (astuces, actualités, sécurité)

Il est possible de traiter des corpus en langues étrangères. Mais tous les documents d'un corpus doivent être dans la même langue.

Contributions
Mots-clés

Formation : bases de données XML natives

Cette formation de 3 jours est organisée par MutEC et PLUME. Elle se tiendra à Lyon les 22-23-24 mai 2013.

La formation a pour objectif de faire découvrir les bases de données XML natives aux chercheur-es et ingénieur-es qui manipulent des données XML (corpus textuels, éditions critiques, etc.) mais qui pour diverses raisons n'utilisent pas actuellement de bases de données XML natives. La formation présentera les logiciels BaseX et eXist-db.

Le nombre de places étant limité, la priorité sera donnée aux candidat-es impliqué-es dans des projets de recherche en cours manipulant des données XML.

Date limite d'inscription : 28 avril 2013

Contacts :
- Maud Ingarao maud [dot] ingarao [at] ens-lyon [dot] fr
- Nathalie Arlin nathalie [dot] arlin [at] ens-lyon [dot] fr

Action de formation - Bases de données XML natives

Fiche ressource Article, événement, site web...
  • Création ou MAJ importante : 24/04/13
  • Correction mineure : 10/07/13
  • Auteur : Maud Ingarao (Institut d'Histoire de la Pensée Classique - ENS Lyon)
Mots-clés

Action de formation - Bases de données XML natives

  • Type de ressource : formation / cours
  • Date de publication du document ou de l'événement : mai 2013
  • Auteur(s) ou responsable(s) : Maud Ingarao (maud.ingarao @ ens-lyon.fr) (ENS-Lyon) et Nathalie Arlin (nathalie.arlin @ ens-lyon.fr) (ENS-Lyon)
  • Contact pour plus d'informations : Maud Ingarao (maud.ingarao @ ens-lyon.fr) (ENS-Lyon) et Nathalie Arlin (nathalie.arlin @ ens-lyon.fr) (ENS-Lyon)

MutEC Projet PlumeARC5

MutEC et le Projet Plume, avec le soutien de la Région Rhône-Alpes, organisent une

Formation aux bases de données XML natives

du 22 au 24 mai 2013

au Centre Blaise Pascal, ENS de Lyon
Salle des travaux pratiques
Bâtiment LR6
46 allée d'Italie
69007 Lyon
Plan d'accès

Cette formation a pour objectif de faire découvrir les bases de données XML natives aux chercheur-es et ingénieur-es qui manipulent des données XML (corpus textuels, éditions critiques, etc.) mais qui pour diverses raisons n'utilisent pas actuellement de bases de données XML natives.

La formation présentera les logiciels BaseX (enseignement en anglais) et eXist-db (enseignement en français), et se déroulera en trois temps :

Mercredi 22 mai 2013 - Ma première application web avec eXist-db - 9h30-17h30

Formateurs
Michel Jacobson (Service interministériel des Archives de France)
Clément Plancq (Laboratoire de linguistique formelle, UMR 7110)

Jeudi 23 mai 2013 - Ma première application web avec BaseX - 9h30-17h30 (enseignement en anglais)

Formateurs
Christian Grün (Université de Constance, Société BaseX)
Sous réserve : Michael Seiferle (Société BaseX)
Sous réserve : Alexander Holupirek (Université de Constance, Société BaseX)

Vendredi 24 mai 2013 - 9h30-15h30

Présentation de MutEc et du Projet PLUME et sa plate-forme - présentation en PDF Présentation au  format  PDF
Temps encadré où les stagiaires pourront travailler avec leurs propres données XML.
Evaluation de la formation

Le nombre de places étant limité (20 places), une sélection sera effectuée et la priorité sera donnée aux candidat-es impliqué-es dans des projets de recherche en cours manipulant des données XML.

Pré-requis : XML, XPath. Connaissances en XSL et/ou XQuery recommandées.

La formation est gratuite. Les frais de déplacement, d'hébergement et de repas sont à la charge des participant-es.

Date limite d'inscription : 28 avril 2013

Formulaire d'inscription : https://a2l.projet-plume.org/limesurvey/index.php?sid=16172

Contacts :
- Maud Ingarao maud.ingarao @ ens-lyon.fr
- Nathalie Arlin nathalie.arlin @ ens-lyon.fr

MutEC - http://www.mutec-shs.fr/
PLUME - https://www.projet-plume.org/

Voir aussi : http://www.mutec-shs.fr/action-formation-bases-don...

Fichier attachéTaille
2013maimutecplateforemplume.pdf442.11 Ko
Fiche logiciel validé
  • Création ou MAJ importante : 18/03/13
  • Correction mineure : 10/06/13
  • Rédacteur de la fiche : Anne Cheylus - L2C2 (CNRS, Université Claude Bernard, Lyon 1)
  • Relecteur(s) : Milan Bouchet-Valat (Laboratoire de sociologie quantitative (CREST-LSQ))
    Delphine Grancher (Laboratoire de Géographie Physique)
  • Contributions importantes : Milan Bouchet-Valat
  • Responsable thématique : Pascal Joly (LJLL)
Mots-clés
Pour aller plus loin

R Commander : interface graphique pour réaliser des traitements statistiques avec le logiciel R

Description
Fonctionnalités générales

R-commander est une interface graphique pour le logiciel R. Elle facilite l'apprentissage de ce langage de programmation en offrant à l'utilisateur la possibilité de réaliser l'importation de données, un certain nombre de traitements statistiques élémentaires ou plus avancés, l'export des résultats de manière interactive tout en indiquant les commandes R correspondantes. Des greffons peuvent être ajoutés pour réaliser d'autres traitements statistiques.

Autres fonctionnalités
  • Importation de données :
    • depuis un fichier texte ; par copier-coller ; par URL (Windows, Mac, Linux)
    • depuis des fichiers Excel, Access, dBase, SPSS, SAS, Minitab, STATA (Windows)
    • depuis un paquet R
  • Manipulation des données (sélection, réorganisation, édition directe, recodage...)
  • Traitements statistiques :
    • statistiques descriptives : moyenne, médiane, tableau de contingence
    • tests paramétriques (tests t, ANOVA) et non paramétriques (Wilcoxon, Kruskal et Wallis)
    • analyse de données : analyse en composantes principales, analyse factorielle, analyse discriminante, classification
    • modélisation : régression linéaire, régression logistique simple, multinomiale et ordinale, modèles linéaires généralisés
  • Représentations graphiques :
    • diagramme en barres, en points, camembert, boîte à moustaches, histogramme, comparaison de quantiles...
    • diagnostics de modèles
    • les graphiques peuvent être copiés ou exportés dans un format vectoriel pour une meilleure qualité d'impression
  • Probabilités, courbes de répartition et données aléatoires à partir de nombreuses distributions.
  • Une trentaine de greffons disponibles fournissent d'autres possibilités d'analyses : analyse de durée/survie, analyse de données « à la française », analyse textuelle...
Interopérabilité

Importation depuis plusieurs formats courants ; exportation au format CSV ou TSV.

Environnement du logiciel
Logiciels connexes
  • R
  • FactoMineR, un paquet pour l'analyse de données sous R possédant un greffon pour R commander
Autres logiciels aux fonctionnalités équivalentes
  • Statistica (propriétaire)
  • SPSS (propriétaire)
  • STATA (propriétaire)
  • SAS (propriétaire)
  • S-Plus (propriétaire)
Environnement de développement
Type de structure associée au développement

L'auteur principal travaille au département de sociologie de l'université McMaster d'Hamilton, Ontario au Canada.

Eléments de pérennité

Le R commander a été inclus dans le CRAN, le répertoire commun des bibliothèques de R et plus de 20 développeurs ont contribué à son amélioration.

Références d'utilisateurs institutionnels

Une recherche de pages web contenant le mot-clé « rcmdr » et limitée au domaine cnrs.fr renvoie plus de 1000 références, essentiellement vers des documents de formation.

Environnement utilisateur
Divers (astuces, actualités, sécurité)

Pour installer ce logiciel sur un ordinateur connecté à Internet, lancez la commande

> install.packages("Rcmdr")

dans R, choisissez le miroir CRAN qui vous semble le plus proche de chez vous. Utilisez ensuite la commande

> library(Rcmdr)

pour lancer le R commander. La première fois, des installations complémentaires seront effectuées.

Contributions

Contacter directement l'auteur par courriel.

Syndiquer le contenu