L'année dernière, j'ai tenté de raconter combien la pratique des dits puzzles m'avait aidé à construire un plan de thèse. Ces puzzles demandent d'ordonner des éléments petit à petit, et de cerner l'ensemble d'un processus de linéarisation pour aboutir. Dans ce post, j'aimerais réfléchir à un second ensemble de pratiques qui a joué un rôle important pour moi dans l'intégration des processus de linéarisation propres au travail d'enquête et à la production d'un discours scientifique. La linéarisation repose cette fois-ci sur l'écriture du code informatique, d'abord pour linéariser le traitement des données en SHS, mais aussi pour linéariser le raisonnement qui en supporte l'analyse et, surtout, la présentation finale de celle-ci.
L'année dernière (non, en fait, le temps que je termine, c'était il y a 2ans ^^ ) dans un post consacré aux puzzles j'ai tenté de raconter combien la pratique des dits puzzles m'avait aidé à construire un plan de thèse. Ces puzzles demandent d'ordonner des éléments petit à petit, et de cerner l'ensemble d'un processus de linéarisation pour aboutir. Tantôt il n'y a pas d'ordre linéaire a priori, mais des règles d'ordonnancement spécifiques dont la linéarisation est à la fois une conséquence et une finalité ; tantôt il y a un ordre linéaire sous-jacent à découvrir, et c'est d'en faire l'hypothèse qui permet d'avancer jusqu'à la résolution du puzzle. À force de pratiquer ces petits puzzles, j'ai fini par transposer leurs règles dans la construction du plan puis dans la rédaction du texte de ma thèse. Cette transposition m'a finalement permit de réussir là où j'avais jusqu'ici échoué malgré les tonnes de conseils bien plus élaborés qu'on m'avait généreusement prodigués.
Dans ce post, j'aimerais réfléchir à un second ensemble de pratiques qui a joué un rôle important pour moi dans l'intégration des processus de linéarisation propres au travail d'enquête et à la production d'un discours scientifique. Ce second ensemble de pratiques s'est développé à peu près en parallèle de l'usage des puzzles. La linéarisation repose cette fois-ci sur l'écriture du code informatique, d'abord pour linéariser le traitement des données en SHS (sur ce point, c'est assez évident), mais aussi, en conséquences, pour linéariser le raisonnement qui en supporte l'analyse et, surtout, la présentation finale de celle-ci. L'impression que j'ai, c'est que le code n'est pas le fait d'un esprit naturellement ordonné et apte a priori à produire un séquençage linéaire des choses (#U+1F417). Au contraire, l'écriture du code intervient en amont, comme un exosquelette, les exigences intrinsèques de sa pratique contribuant à structurer le travail de raisonnement et d'écriture.
Il me semble que la linéarité du discours scientifique peut être un défi à trois niveaux : le raisonnement (pas nécessaire), le traitement des données (pas uniquement propre au quanti, mais souvent invisibilisé dans le récit des études quali), et enfin, la présentation/publication, ie. le récit du raisonnement. J'ai abandonné ma première thèse parce que je n'arrivais pas à rédiger un manuscrit satisfaisant. On m'a dit que j'étais perfectionniste, que je...
]]>J'ai toujours aimé les puzzles, les trucs qui sont dans le désordre et qu'il faut ordonner, ou les trucs qu'il faut compléter, équilibrer, distribuer, etc. Les puzzles sont avant tout un espace de pratiques méditative, récréative, relaxante, focalisante, bref, ils font travailler l'esprit et lui permettent de découvrir certains mécanismes logiques et cognitifs, sans constituer toutefois un travail en eux-mêmes. je n'ai jamais eu la sensation qu'en jouant à ces jeux j'étais en train de m'exercer à une logique propre à l'écriture scientifique elle-même. Cette sensation, je ne l'ai perçue qu'au contact des puzzles de Simon Tatham, au moment où je refaisais une dernière fois un plan de thèse avant de me lancer dans l'écriture (oui, j'en ai fait un certain nombre, de plans de thèses).
J'ai toujours aimé les puzzles, les trucs qui sont dans le désordre et qu'il faut ordonner, ou les trucs qu'il faut compléter, équilibrer, distribuer, etc. Puzzles, ici, c'est au sens large, ça comprend aussi bien les casse-têtes et autres rubik's cubes, que le tricot et les tableaux pré-peints que l'on remplit avec du fil de coton ou de la laine, que les mots-fléchés et les sudokus dans les magazines, que les énigmes et autres exercices à solution dans des livres dédiés (comme ceux du logicien R. Smullyan ). Je n'arrive pas toujours à les terminer, mais ce n'est pas important.
Par exemple, les sudokus de niveau 13 et 14 me laissent absolument pantois et je n'ai jamais cherché à comprendre comment les résoudre, j'ai bien assez de choses compliquées à faire par ailleurs. Ce que j'aime dans les puzzles, c'est que l'objectif c'est de les terminer. S'il y a sans aucun doute une satisfaction propre à cela, qui peut motiver à leur étude, toutefois c'est un processus complètement différent d'un score ou d'un classement qui donneraient envie d'être le ou la plus fort·e, d'être "prem's". Les puzzles sont un espace de pratique avant tout, avec l'idée que la pratique transforme les pratiquant·es.
D'ailleurs, pour moi, deux choses sont importantes dans l'appréhension des puzzles en général. La première, c'est que, souvent, la fin d'un puzzle est moins satisfaisante que le passage d'une portion précédente. La fin, on la voit venir, on a déjà compris l'essentiel, tout est comme déjà dans l'ordre, il n'y a plus qu'à effectuer les gestes ("les épis sont bien rangés", dirait le dernier poème du yiking, H64). Par contre, quand on trouve le puzzle à son niveau, quel que soit ce niveau, on est face à une difficulté inédite, on doit sortir de ses habitudes, on doit reconsidérer ses propres perspectives, et on doit admettre qu'on était peut-être pas encore assez outillé·e pour réussir. Et justement, il faut bien en passer par là pour avancer.
La seconde caractéristique d'un puzzle, c'est que, restant une expérience individuelle, les puzzles ne donnent pas envie de tricher. Lire le mode d'emploi avant d'avoir essayer de trouver, ou remplir des...
]]>Twitter autorise la récupération de corpus de tweets et de leurs metadonnées à partir de son API. Des solutions permettent d'effectuer cette collecte, TCAT par exemple, un projet de Digital Methods Initiative. IramuteQ est un logiciel qui permet des analyses lexicales suivant la méthode Reinert (le même genre que Alceste), particulièrement intéressantes dans des cas de controverses. Comment formater les données que l'on vient de récupérer avec DMI-TCAT sur l'API de Twitter afin d'en faire l'analyse dans iRamuteQ ?
Dans IramuteQ, il existe un bouton pour importer des données venant de TCAT. Mais je ne l'ai jamais utilisé, je n'en parlerai donc pas ici. Dans ce post, on va aborder une manière simple, rapide et adaptable (donc sûrement améliorable aussi) de s'atteler à cette tâche. Il suffit de disposer d'une installation fonctionnelle de R (qui est forcément déjà installé pour iRamuteQ) et des outils fournis par le Tidyverse. Cette méthode est, bien entendu, garantie 100% à base de code opensource.
Twitter autorise la récupération de corpus de tweets et de leurs metadonnées à partir de son API. Des solutions permettent d'effectuer cette collecte, TCAT par exemple, un projet de Digital Methods Initiative. IramuteQ est un logiciel qui permet des analyses lexicales suivant la méthode Reinert (le même genre que Alceste), particulièrement intéressantes dans des cas de controverses. Comment formater les données que l'on vient de récupérer avec DMI-TCAT sur l'API de Twitter afin d'en faire l'analyse dans iRamuteQ ?
Dans IramuteQ, il existe un bouton pour importer des données venant de TCAT. Mais je ne l'ai jamais utilisé, je n'en parlerai donc pas ici. Dans ce post, on va aborder une manière simple, rapide et adaptable (donc sûrement améliorable aussi) de s'atteler à cette tâche. Il suffit de disposer d'une installation fonctionnelle de R (qui est forcément déjà installé pour iRamuteQ) et des outils fournis par le Tidyverse.
Cette méthode est, bien entendu, garantie 100% opensource, elle fonctionne sous linux et macOS, et très probablement sous windows pour peu que Rstudio et iRamuteQ soit déjà installés. Comment va-t-on procéder ici ? On ne va pas travailler à partir d'un exemple, comme c'est souvent le cas dans les tutoriels. Je vais simplement commenter le code, qui pourra être recopié à peu près en l'état, chacun·e restant responsable de la façon dont iel l'adaptera à sa propre configuration. Il est possible de récupérer ce code soit dans un script R, à quelques adaptations près, soit dans un notebook ou un document Rmarkdown (.rmd) dans Rstudio (c'est sous cette forme, pas forcément la plus adéquate au départ, que je l'ai fourni la première fois à un masterant qui se lançait dans l'analyse d'une polémique sur Twitter, et tout a très bien marché).
DMI-TCAT, de son vrai nom Digital Methods Initiative Twitter Capture and Analysis Toolset, distribue les données et les métadonnées de chaque tweet dans une base PHP/mySQL qui permet l'export en .csv. Les données en sortie de l'API sont en JSON et dans un ordre...
]]>Je me lance dans la rédaction de ce dossier, parce qu'il devient urgent que je puisse fournir un document synthétique concernant les logiciels et l'équipement nécessaire à la transcription de pistes audio, que ces dernières soient des archives historiques, des interviews de journalistes, des entretiens de socio/ethnographes, etc. Cette urgence trouve son origine dans une situation qui m'apparaît relativement intriguante au fur-et-à-mesure des années : de plus en plus de personnes se lancent dans l'enregistrement d'entretiens sans savoir comment les traiter ensubien encore des journalistes, m'appellent directement ou lancent des bouteilles à la mer dans twitter, pour savoir "quel est le logiciel qui, rapidement, pourrait mâcher largement le travail de transcription d'entretiens, souvent un grand nombre, qui doivent être analysés avant le [insérer ici une date particulièrement imminente...]". Donc, en général, la requête est accompagnée d'une certaine panique. Disposer aujourd'hui des moyens techniques d'enregistrer facilement et à moindre frais une piste audio n'offre pas pour autant de solutions toutes faites pour organiser l'ensemble du workflow qui préside à la transcription et à l'analyse de cette piste audio. Le plus pratique reste, comme bien souvent, de s'y préparer un petit peu avant même de faire le premier entretien, et d'éviter les désagréments d'un bidouillage fait dans l'urgence.
Sur son blog, Alex Alber expliquait en 2010 que l'automatisation de la transcription textuelle de pistes audio n'était pas pour demain, en tout cas pas dans le champ des SHS, et ce, moins par manque de technologies puissantes (elles existent d'autant plus presque dix ans après), mais principalement parce que la reconnaissance vocale automatisée n'est pas du tout adaptée au type de travail qui doit être fourni lors des transcriptions scientifiques ou journalistiques. Et ça ne marche pas vraiment, même si c'est "juste pour mâcher le travail". Trust me, je serais le premier à en faire la promotion si c'était le cas, cependant, la reconnaissance vocale automatisée a besoin d'un cadre très précis pour fonctionner, la transcription de courriers, par ex. des courriers dictés "déjà rédigés" par le/la boss à son/sa secrétaire, ou bien une série de questions aux formes redondantes et anticipables par...
]]>Dans ce post, on trouvera l'histoire et les images à imprimer du mème de @moossye "open all the black boxes"
Il y a quelques mois, Marion Coville a détourné un mème bien connu afin de partager la joie immense d'avoir démonté toutes les prises électriques de son appartement à l'aide d'une boîte de tournevis qu'on venait de lui confier.
Ouvrir toutes les boîtes noires, c'est une référence explicite aux STS, autrement dit aux Science & Technology Studies. Ce type d'études consiste à décrire comment des objets tels qu'un laboratoire scientifique, une infrastructure informatique, un comité d'éthique, ou encore un magnétoscope ou un réseau de transports métropolitain sont le résultat de l'articulation d'éléments techniques, matériels, de décisions, de normes, de choix et d'habitudes très locales, de discussions autour de la machine à café, d'une maintenance assidue, d'usages et de mésusages, etc., bref de tout ce qui ne se voit pas forcément quand on prend un cachet d'aspirine, qu'on consulte le minitel, qu'on s'interroge sur le climat, qu'on regarde une cassette VHS ou qu'on fraude le métro.
Dans ce type d'études, les méthodes d'enquête sont généralement combinées. Toutefois, lorsque l'on travaille de manière individuelle, les plus courantes restent l'observation ethnographique des gens au travail ou des usagèr·es et l'analyse (automatisée ou pas) de choses très ennuyeuses comme des annuaires, des modes d'emploi, des conditions juridiques d'utilisation (bref des données techniques et de la paperasse à n'en plus finir...). Marion, dont les STS sont un pilier du travail en sociologie et en info-com, a d'ailleurs ouvert un blog tout neuf portant plus particulière sur les STS féministes et les queer STS : fem.tech.
Plus tard, en prévision de l'anniversaire de Marion, j'ai repris le mème pixel par pixel, vecteur par vecteur, et l'ai transmis à Noémie Couillard (qui bosse pas loin sur son carnet hypotheses 'polipubli') qui s'est, elle, chargée de le t-shirtiser (oui, oui, c'est désormais un verbe courant...) avant de l'offrir à Marion. Avouons-le, dès à présent, par ce post, nous comptons aussi l'offrir à la postérité ! Voici ci-dessous les fichiers (avec une bonne résolution) qui vous permettront, une fois le magasin d'impression sur t-shirts localisé, de vous concocter le même t-shirt, ou un tote bag parapluie, un hoodie, un tablier, ou bien encore, tout simplement, la couverture de tous vos cahier pour la rentrée...
Enjoy !
]]>Dans un post précédent, j'ai raconté rapidement comment j'avais construit le questionnaire webINTIM. Ici, j'entre un peu plus dans les détails, notamment ceux qui concernent le choix difficile des catégories et des formulations. En effet, l'une des conditions de retour du questionnaire consiste avant tout à ce qu'il ait été lisible par un grand nombre de personnes aux cultures sexuelles au mieux différentes, mais parfois aussi en conflits, et il est très loin d'être simple de choisir les bons mots. C'est d'ailleurs dans ce genre de situation que l'on comprend combien les cultures sexuelles produisent des univers lexicaux très (très) différents.
J'ai regroupé les questions qui suivent par thèmes, et j'ajouterai ou complèterai, si besoin, chaque partie dans les semaines à venir.
Je considère que ces termes sont des outils qui aux gens à raconter, se positionner, ou encore prendre parti dans une situation, et donc que ces termes ne prennent sens que contextualisés. Je ne cherche pas à en donner, de mon côté une définition précise, puisque je ne m'intéresse à la manière dont il.le.s vont parler de leurs usages du web en contexte sexuel, ;-) . Il faut se rappeler une chose toute simple, c'est que, déjà, l'emploi de ces termes est genré, c'est-à-dire que femmes et hommes n'en font pas le même usage et ne leur donnent pas systématiquement les mêmes significations : lorsque l'on demande à des hommes et des femmes de compter le nombre de leurs partenaires sexuel.le.s, il s'avère que les hommes ont (avaient ?) tendance à compter toutes leurs partenaires sexuelles (au sens de rapport sexuel, unique) et que les femmes ne dénombraient que les partenaires "qui avaient compté" dans leur vie, en somme les types avec lesquelles elles avaient vécu une grande passion ou une relation longue.
Bon, c'est une anecdote relativement rabâchée en sciences sociales, mais elle indique bien le caractère tout à fait relatif de l'emploi et de la compréhension de ces termes en contexte sexuel, et dans ce cas, à la fois l'équivalence (les deux termes répondent à une même question), et leur différence (ils ne répondent pas pour les mêmes raisons à la même question). Or, le questionnaire doit se construire autour de questions qui peuvent être lues par tout le monde, aussi les chercheurs doivent choisir souvent entre...
]]>Voici un post destiné à être probablement updaté régulièrement durant les prochaines semaines, puisqu'il s'agit d'y organiser une sorte de F.A.Q. du questionnaire webINTIM portant sur les usages amoureux, affectifs et/ou sexuels du web (principalement 2.0) et remplissable sur sociographie.fr. En effet, après avoir mis en ligne le questionnaire en fin de semaine dernière, j'ai reçu des questions variées, dont quelques unes étaient récurrentes, et parmi ces dernières, certaines inquiètes ou énervées. Ce qui est très intéressant dans ces retours c'est qu'ils discutent une partie des énoncés publiés dans le questionnaire, et interrogent tout autant la façon dont je les ai choisis, que, plus largement, ce qu'est un questionnaire, son caractère normatif, sa nature de dispositif technique, ses objectifs scientifiques, etc.
Ces retours sont très importants pour moi, car ils font suite à une série de réflexions particulièrement tendues lors de la construction du questionnaire au début de l'été dernier. Il faut bien comprendre comment un tel questionnaire arrive matériellement en ligne. D'abord, c'est la première fois que je travaille seul sur un questionnaire, et j'ai découvert une nouvelle logistique puisque j'ai plutôt l'habitude de travailler sur des données produites sur le web, qui existent déjà dans des bases de données, ordonnées dans un ordre spécifique qui ne m'est pas adapté a priori. Quand on se situe au point de départ de la production des données, c'est une tout autre affaire, puisque l'on doit dresser le cadre de production de ces données. J'ai conçu ainsi en quelques jours les axes principaux, les objectifs scientifiques, etc. Ensuite j'ai cherché une plateforme, un logiciel, qui me permettrait de construire les questions à partir de modèles de questions (comme dans google-form, si vous voulez, mais en vraiment mieux, et sans exploitation des données par ggggle). Heureusement, le monde du logiciel libre regorge d'outils plus intéressants les uns que les autres, et LimeSurvey a trouvé rapidement grâce à mes yeux. Alors que je m'apprêtais à installer un serveur et tout le bazar pour l'héberger, j'ai en plus découvert que la fac de Nantes, là où je prépare la thèse qui requiert le questionnaire, me permettait de bénéficier d'une installation déjà toute faite (le rêve !).
J'ai...
]]>Je poste ici un tout petit compte-rendu des idées qui me sont venues à la suite des journées d'études sur les questions de genre et la fouille de données, organisée par Aurélie Olivesi du laboratoire ELICO à Lyon en novembre 2014. Tout devrait être certainement mieux référencé, plus réfléchi, mais, je n'ai pas l'énergie de le faire maintenant, j'ai déjà suffisamment de chapitres à rédiger comme cela ;-) [#teamrédaction]. Pour le coup, je ne me lance pas du tout dans un compte-rendu exhaustif, qui présenterait l'ensemble des travaux, mais vais plutôt lister les questions qui me restent en tête quelques mois plus tard (laissant alors dans l'ombre certains travaux tout à fait intéressants par ailleurs). Donc, précisions faites, qu'ai-je bien pu observer, depuis le fond de la salle, sur ce qui se disait, et sur qui disait quoi ?
Pour commencer, une question prémilinaire : quel genre de chercheur.ses était absent lors de ces journées ? Manquaient à l'appel des gens qui utilisent des logiciels commerciaux (donc de vrai.es chercheur.ses confirmé.es et crédibles ?), des hommes (pourtant toujours en majorité dès que l'on parle de numérique), des gens qui s'intéressent, avant tout autre chose, aux technologies numériques (au point de ne s'intéresser paradoxalement à pas grand chose d'autre). Et, honnêtement, pour une fois, il m'a été fort agréable de pouvoir écouter des chercheur.ses intéressé.es par le numérique, sans devoir subir les concours de qui va désigner en premier le service le plus hype, qui innove de la manière la plus acceptable, bref, sans devoir subir les interventions de ceux qui confondent sociologie et marketing, et j'en passe, à coup de e-bidules et de i-trucs. C'est certes anecdotique, mais, vraiment, le cadre théorique qui se noue autour du numérique lors de ces raouts techno-mercantiles devient particulièrement perceptible et fumeux, une fois mis à distance de la sorte. j'en remercie, donc, encore, les organisatrices.
En premier lieu, une distinction très nette est apparue entre des personnes qui manipulent des logiciels de traitement automatisé des données et des personnes qui se posent des questions autour des discours...
]]>Avec Mélanie Gourarier et Marc Parmentier, nous avons été invités par Martin Quenehen à partager l'antenne de Grantanfi. Il nous a réunis pour évoquer ce que la recherche universitaire pouvait bien faire lorsqu'elle s'intéressait à la séduction ainsi qu'aux rencontres amoureuses et sexuelles, pour le coup, à leur intégration dans les usages du web.
Avec Mélanie Gourarier et Marc Parmentier, nous avons été invités par Martin Quenehen à partager l'antenne de Grantanfi. Il nous a réunis pour évoquer ce que la recherche universitaire pouvait bien faire lorsqu'elle s'intéressait à la séduction ainsi qu'aux rencontres amoureuses et sexuelles, pour le coup, à leur intégration dans les usages du web.
Lors des 5 épisodes qui ont été diffusés durant la semaine du 10 au 14 février 2014 inclus, nous avons tour à tour évoqué nos terrains respectifs (la communauté de la séduction pour M. Gourarier, le web de la rencontre conjugaliste hétérocentrée pour M. Parmentier, auquel j'ajoute le web à caractère sexuel sans distinctions identitaires - puisqu'ils sont inextricables selon moi). Nous avons parlé méthodologie, tout autant des points de départs de nos enquêtes, des surprises et des découvertes au fur et à mesure de l'exploration de ces terrains, des erreurs et aussi des manières dont nous avons été affectés par ces recherches. Nous avons expliqué l'importance de la littérature féministe pour effectuer ce type de recherche (sociologie, anthropologie et info-com étant insuffisantes le plus souvent pour formuler certaines questions relatives aux positionnement anti-féministes des acteurs, ou encore aux articulations entre cultures techniques et cultures sexuelles). Nous avons enfin évoqué la question du harcèlement sexuel en milieu universitaire, avant de conclure sur les extensions possibles de nos travaux.
bonne écoute ! :-)
]]>
Nous voici au premier jour du congrès de l'afs, qui est le rassemblement probablement le plus important, avec l'aislf, de sociologues français et/ou francophones. Tout le monde arrive petit à petit, puis cours derrière son programme, sa chambre d'hotel, ses tickets de bus, etc. Les participants sont gentiment accueillis, ils savent ce qu'ils doivent chercher et demander, les personnes chargées de l'organisation du congrès savent ce qu'elles doivent indiquer et répondre. Les informations techniques et d'organisations sont-elles les seules informations à devoir circuler de façon globale (entendu ici transversalement aux RT et GT et réseaux personnels) dans ce type de congrès ? Qu'en dit-on sur twitter ? Une telle question peut paraître étrange, et a priori, même, on s'en moque. Pourtant elle permet de faire le point sur une suite de pratiques propres, dans une certaine mesure, au monde scientifique et qui me semblent tout à fait intéressantes à observer et réfléchir.
Qu'en dit twitter, donc ? Et, bien sur, pourquoi twitter ? Sur ce site, on échange de très courts messages (140 caractères max.), on y suit, entre autres choses, des listes thématiques générées par l'indexation intentionnelle des messages par leurs auteurs. Les messages se voient attribuer des mots-clés, des hashtags, qui prennent la forme d'un mot précédé d'un dièse (comme #sociologie, par exemple). L'importance des hashtags indexant les messages est aisée à concevoir lorsque l'on remet en contexte le fait d'envoyer un message sur twitter : des millions de messages vont être envoyés dans l'heure qui suit, aussi, il faut bien pouvoir trier et distinguer notre message de tous les autres.
L'idée que l'on puisse commenter et échanger des messages autour d'un congrès n'est pas dénuée d'intérêt. En effet, déjà, certains des participants ont depuis des années déjà une pratique de blogging scientifique, soit qu'ils travaille sur des plateformes institutionnelles comme hypothèses.org ou feue culturevisuelle.org pour celles que je connais le mieux, soit qu'ils tiennent leur blog de façon indépendante (soit, assez souvent, les deux...),. Souvent, ces personnes possèdent aussi un compte sur la plateforme de micro-blogging et de réseautage twitter.com, et y évoquent entre autres choses très variées certaines des sessions auxquelles ils assistent lorsqu'ils se rendent à un congrès, comme il le font sur leur blog par ailleurs (ici l'ex. de P. Mercklé à grenoble en 2011...
]]>