Depuis sa création, l’utilisation du web a évolué d’un schéma top down (Web 1.0 : quelques uns s’adressent à une masse qui répond peu) vers un schéma bottom up (Web 2.0 : les flux de réponses et de conversations foisonnent et deviennent les plus importants par leur masse).
Dans cette conversation géante, planétaire, permanente et multi sources, ce qui devient prédominant ce n’est pas la manière dont réagit l’interlocuteur ciblé mais ce que les individus et leurs réseaux font de l’information qu’ils reçoivent et échangent, autrement dit : « qui dit quoi à qui, plus ou moins fort avec plus ou moins d’audience ». L’opinion y est plus discutée, circulante et donc rapidement foisonnante. Qu’il s’agisse des grands événements mondiaux ou des petites réalités locales, tout se discute plus avec plus de monde et plus souvent.
Face à cette masse de données, les études d’opinion ont souvent buté sur deux problèmes : l’analyse qualitative ne rend pas compte du fonctionnement de la masse et l’analyse quantitative simplifie voire biaise le décryptage fin des mécanismes mentaux individuels.
Il apparaît aujourd’hui une méthode qui tend à combiner qualitatif et quantitatif. Grâce à des logiciels appropriés, elle permet d’étudier simultanément le contenu des conversations à travers des milliers de post, de blogs, forums, wiki, réseaux sociaux et les liens informatiques qui établissent le réseau d’échange de chaque interlocuteur. Ce type d’analyse mixte pourrait permettre de compléter les méthodes d’études classiques de l’opinion en étudiant finement la nature des conversations, postures, idées, valeurs sur des populations très importantes. A suivre …
Ajouter un commentaire