Page 1


EDITORIAL 555 auteurs, 37 numéros, Hermès a 15 ans En 15 ans, Hermès a été témoin, et acteur, des formidables mutations qui affectent la communication. Ce fut d'abord la dérégulation de l'audiovisuel, l'apparition de secteurs privés forts, puis le câble et le satellite ont facilité la fragmentation de l'offre et le début de la communication à la demande. Avec le changement technique, les chaînes thématiques, notamment d'information, se sont développées, puis les bouquets satellites ont agrandi encore le spectre. Internet a contribué ensuite à infléchir le comportement des usagers, surtout chez les jeunes. L'élargissement et la diversification de tout ce qui concerne l'information, les services, les loisirs, l'éducation, ont transformé le champ de la communication. Celle-ci a pénétré tous les aspects de la vie quotidienne, modifiant les comportements et les habitudes, jusque dans la politique. Au delà des techniques, la communication est devenue le symbole naturel de la modernité. Au plan international la mondialisation technique a rencontré la globalisation économique, avec la fin du conflit Est/Ouest. Le «village global» devint une réalité technique au moment où l'économie de la communication prenait son essor, avec la fantastique concentration mondiale des industries culturelles et de la communication. Les autoroutes de l'information, puis le thème étrange de la société de l'information sont devenus le symbole du progrès. Il n'était question que de cosmopolitisme et de culture mondiale. La puissance financière garantissait la diversité culturelle, présentée comme la suite naturelle, et logique du village global. Tout n'était que relation et interaction, avec seulement des pays en avance et d'autres en retard. Nous n'avons pas été nombreux, à l'époque, à vouloir dissiper l'illusion du village global. De toute façon ni cette «nouvelle frontière», ni les utopies démocratiques d'Internet, n'ont suffi à créer un monde meilleur: on a découvert l'incommunication culturelle, une visibilité encore plus grande des inégalités, la montée des intolérances, des terrorismes et des guerres. Le rêve un peu naïf de la mondialisation économique et technique comme condition de la paix s'est heurté aux dures lois de l'Histoire et des injustices. Voir l'Autre n'a pas suffi à le rendre plus compréhensible. D'autant que cet Autre, est souvent le Sud, partenaire bien inégal de cette «révolution mondiale de l'information et de la communication». Passé le moment de fascination pour ces outils et la demande justifiée, d'en profiter, le Sud se demande de plus en plus où est dans tout cela le modèle universel de l'information et de la communication, tant vanté par le Nord ? D'autant que le même HERMÈS 37, 2003

9


Les quinze ans d'Hermès, 1988-2003

Nord détient la maîtrise technique, économique, mais aussi culturelle et cognitive. Si, il existe 6, 5 milliards d'habitants de la planète, 4, 5 milliards de postes de radio, 3, 5 milliards de postes de télévisions, plus d'un milliard de téléphones portables et moins d'un milliard d'ordinateurs, chacun devine les inégalités. D'ailleurs avec la naissance des mouvements altermondialistes, à partir de janvier 2000, c'est cette référence naïve à la mondialisation comme condition d'un monde meilleur qui est mise en cause. Non seulement le monde multipolaire duXXIesiècle est plus dangereux que le monde fini duXXesiècle, mais en outre le fait qu'il soit ouvert et visible accentue la naissance d'une vision critique. L'information et la communication ont rencontré de plein fouet, les forces et les contradictions de la technique, de l'économie et de la politique. Durant ces 15 années la communication a ainsi émergé au plan mondial comme un des enjeux politiques et culturels majeurs duXXIesiècle, avec l'opposition de deux philosophies, l'une technique et économique, l'autre humaniste et démocratique. En un mot on est passé des performances techniques, des miracles économiques, et des mirages symbolisés par la bulle spéculative d'Internet (1999-2001) à un retour de l'Histoire et de la politique, où l'enjeu de la cohabitation culturelle au niveau mondial constitue la symétrique de cette explosion de la communication. Toute réflexion sur la communication est donc liée, à une problématique politique, et plus généralement à une philosophie de l'histoire. Ceci requiert alors beaucoup de connaissances et de théories pour essayer de s'affranchir des discours techniques, économiques, politiques qui ont totalement envahi le domaine de la communication. C'est le rôle d'Hermès, depuis 15 ans de contribuer, avec d'autres, à construire ces connaissances à la fois d'un point de vue théorique, empirique, historique, et comparatif. Tâche d'autant plus importante que dans l'emballement qui caractérise la communication depuis une génération, la demande de connaissances est bien faible dans les disciplines d'histoire, économie, sociologie, science politique, anthropologie, philosophie... Même si l'Université, plus que le CNRS, a construit des filières d'enseignement. Il y a d'ailleurs un réel décalage entre la demande forte, de la part des étudiants, et d'autre part le peu de curiosité qui existe chez une bonne partie du monde académique, des journalistes, hommes politiques, hauts fonctionnaires pour tout ce qui concerne les questions théoriques de communication, culture et société. Comme si les jeunes, de plain-pied avec la communication, en percevaient déjà la complexité anthropologique et politique, alors que les plus anciens n'y voient encore que des recettes, de la manipulation, et des logiques formelles. Pourtant les enjeux sont considérables et, de l'échelle individuelle à la collectivité, de l'Etat Nation, à la mondialisation, on ne sait guère comment les individus et les sociétés vont finalement accepter ou refuser de vivre dans cet univers encombré d'informations, de rumeurs, de signes, d'images, d'interactions, de services techniques, mais où l'intercompréhension, le respect de la diversité culturelle et tout simplement l'intérêt pour l'autre n'auront pas forcément changé. 10

HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

En réalité, ce sont les rapports entre information, culture et communication, qui deviennent à la fois de plus en plus visibles, et de plus en plus compliqués. Nous, chercheurs, universitaires, si nous n'avons pas toujours de réponses, au moins, nous savons que bien poser les questions est important. Et qu'en tous les cas, plus il y a de technique, de service, d'économie, plus il faut un effort intellectuel, et théorique, pour construire les cadres des connaissances susceptibles de penser cette «révolution de la communication». Faut-il attendre la aussi les crises pour découvrir l'utilité et l'importance des sciences humaines et sociales? Face aux promesses techniques, aux mirages économiques et aux utopies sociales et politiques, il faut prendre de la distance. Admettre que les hommes et les sociétés ne sont pas en ligne avec les réseaux. Sortir de la technique et de l'économie pour réintroduire l'histoire et les sociétés, les hommes et les projets. Hermès, revue scientifique, participe à cet effort. Et nous l'avons fait, avec une certaine joie et liberté d'esprit. Il y eut beaucoup de travail dans ces 37 numéros. Merci pour tout cela aux 535 auteurs et aux membres du Comité et du Secrétariat de rédaction. L'immensité de ce domaine, intellectuel et scientifique, et l'obligation de l'aborder de manière interdisciplinaire nous rend à la fois modestes, mais libres. Il y a tout à faire et penser. Certains numéros de la revue ont profondément marqué ce domaine, en permettant d'élargir les perspectives. Si la génération des années 1960 fut celle des précurseurs pour les recherches sur la communication, la nôtre, depuis les années 1980 est sans doute aussi pionnière car nous sommes les témoins de l'explosion de l'information et de la communication devenue à la fois enjeu d'un gigantesque changement scientifique technique, économique et politique. Si depuis 15 ans la technique et l'économie dominent nous savons bien que l'essentiel se jouera sur le mode culturel, social et politique. Vivre dans un monde plus visible, ne le rend pas forcément plus compréhensible, ni plus tolérable. «La fin des distances physiques révèle l'étendue des distances culturelles». Et penser les conditions à partir desquelles information et communication peuvent faciliter une certaine compréhension, où en tout cas le respect et le dialogue des cultures au niveau mondial, est sans doute un des défis à la fois théoriques et politiques les plus importants du siècle a venir. Produire des connaissances, évaluer les expériences, introduire du comparatisme, construire l'histoire de ce champ, s'ouvrir à de nombreuses problématiques tel est l'objectif de la revue depuis 15 ans. En fait tout ceci est possible, non seulement parce que ce champ de connaissances est neuf et interdisciplinaire, mais aussi parce que Hermès a toujours été un lieu de rencontre. Un carrefour de destins individuels et scientifiques pour des personnalités qui par des chemins différents éprouvent toutes l'impérieuse nécessité d'une réflexion théorique sur la communication. Pas une école théorique, mais un milieu, un lieu de rencontre, avec l'acceptation d'un travail difficile interdisciplinaire, dont la richesse se voit dans la variété des thèmes abordés. Comme toujours, les revues qui réussissent dans l'histoire sont la rencontre HERMÈS 37, 2003

11


Les quinze ans d'Hermès, 1988-2003

d'une grande question scientifique, littéraire ou politique et la création d'un milieu amical où la liberté de penser et la tolérance mutuelle permettent de travailler ensemble. En un mot une certaine ambition nous rassemble: accorder à l'information, la communication et la culture la place qui est la leur au cœur de nos sociétés, et de la mondialisation. Reconnaître que derrière toute théorie de la communication il y a une théorie de la société, est sans doute l'originalité d'Hermès. Il y a finalement, depuis 15 ans, un moment Hermès, fait de liberté, curiosité, rapports amicaux, confiance mutuelle... Il ne subsistera peut-être pas quand les positions théoriques et politiques, sur les grands enjeux de l'essor de l'information et de la communication seront plus structurés. Pour l'instant c'est le Var West de la connaissance. On peut dire d'ailleurs qu'Hermès, illustre la capacité des universitaires et chercheurs à construire un nouveau domaine de connaissance. Ce qui explique le succès du site en trois langues, français, espagnol, anglais, ainsi que celui de la revue, classée première en 2001 après une enquête du ministère de la Recherche auprès de la même de communauté. Le travail accompli illustre le fait qu'il existe déjà une réelle communauté scientifique, au CNRS, à l'Université, et à l'étranger même si la plupart du temps celle-ci manque encore de légitimité et de visibilité. Une partie du monde académique, reste encore indifférent à l'égard de l'importance de ces questions. Pourtant la mondialisation de la communication, où tout est mélangé, intérêts et valeurs, utopies et marchandises, générosités et inégalités ne simplifie pas le problème. Les événements vont plus vite que l'analyse. Les chantiers théoriques et empiriques sont innombrables pour comprendre pourquoi en dépit de l'omniprésence de l'information et, de la communication, les hommes ne se comprennent et ne se tolèrent pas plus qu'hier. Sans doute parce que le défi de la communication, depuis toujours, renvoie plus à la gestion des différences, qu'a l'économie des ressemblances. Et qu'il n'y a pas de communication sans respect de la diversité et de l'altérité. Ce qui explique l'ampleur des problèmes à l'heure des sociétés ouverte, et la raison pour laquelle les concepts d'information et de communication sont inséparables de la société démocratique. Cinq grands domaines de recherches sont notamment au cœur des futurs numéros d'Hermès. L'épistémologie des sciences de l'information et de la communication. Les enjeux de la cohabitation culturelle au plan mondial. Des sciences cognitives à la communication. Les rapports entre identité-culturecommunication. Les concepts et pratiques de la « société de l'information et de la communication ». Les mutations de la communication politique. Dominique Wolton Directeur de la revue Hermès 12

HERMÈS 37, 2003


HERMES Cognition, Communication, Politique

1988 - 2003 DIRECTEUR DE LΑ PUBLICATION Dominique WOLTON CONSEIL SCIENTIFIQUE Paul AMSELEK - Marc AUGÉ - J a y G. BLUMLER - Mario BORILLO - Roland CAYROL -Jean-Paul CODOL - J e a n -

Pierre DESCLÉS -Jean-Pierre DUPUY - Marc FERRO - Eugène FLEISCHMAN - Max FONTET - Jürgen HABERMAS - Elihu KATZ - Jacques LAUTMAN - Jean LECA - Jean-François LYOTARD - Louis MARIN - Edgar MORIN Elisabeth NOELLE NEUMANN - Annick PERCHERON - Jean-François RICHARD - Alain TOURAINE - Andrew WOODFIELD COMITÉ DE RÉDACTION Marc ABÉLÈS - Gilles ACHACHE - Daniel ANDLER - André AKOUN - Marc ANGENOT - Erika APFELBAUM Sylvain AUROUX - Tamatoa BAMBRIDGE - Jean-Michel BESNIER - Gilles BOËTSCH - Daniel BOUGNOUX Dominique BOULLIER - Pierre BOURETZ - Alain BOYER - Dorine BREGMAN - Manuel Maria CARRILHO - Claude CHABROL - Dominique CHAGNOLLAUD - Pierre CHAMBAT - Régine CHANIAC - Jean-Marie CHARON - AnneMarie CHARTIER - Agnès CHAUVEAU - Suzanne de CHEVEIGNÉ - Jean-Pierre CHRETIEN-GONI - MarieFrançoise COUREL - Éric DACHEUX - Jean DAVALLON - Daniel DAYAN - Jean-Pierre DESCLES - Dominique DESJEUX - Jean DEVÈZE - Marco DIANI - Alexandre DORNA - Jean-Pierre DOUMENGE - Marianne DOURY Jean-Pierre DUPUY - Jacques DURAND - Pascal DURAND - Jean ELLEINSTEIN - Pascal ENGEL - Jean-Pierre ESQUENAZI -Joëlle FARCHY - Jean-Marc FERRY - Bernard FLORIS - Gilles GAUTHIER - Pascal GRISET - Smail HADJALI - Jean-Robert HENRY - Mark HUNYADI - Geneviève JACQUINOT-DELAUNAY - Yves JEANNERET Lucien JAUME - Josiane JOUËT - Jean-Paul LAFRANCE - François LAPLANTINE - Anne-Marie LAULAN Christian LAZZERI - Marie-Françoise LÉVY - Edmond-Marc LIPIANSKY - Marc LITS - Guy LOCHARD - Éric MAIGRET - Dominique MEHL - Arnaud MERCIER - Michel MEYER - Patrice MEYER BISCH - Marie José MONDZAIN - Laurence MONNOYER-SMITH - Jean MOUCHON - Jean-Paul NGOUPANDÉ - Bruno OLLIVIER Susan OSSMAN - Thierry PAQUOT - Jean-Gustave PADIOLEAU - Pascal PERRINEAU - Jacques PERRIAULT Bernard PERSONNAZ - Denis PESCHANSKI - Serge PROULX - Serge REGOURD - Dominique REYNIÉ - Yves SAINT-GEOURS - Philip R. SCHLESINGER - Dominique SCHNAPPER - Jacques SÉMELIN - Andrea SEMPRINI Marie-Noële SICARD - Monique SICARD - Roger SILVERSTONE - Isabelle SOURBÈS-VERGER - Pierre-André TAGUIEFF - Jean-François TÉTU - Françoise THIBAULT - Éliséo VÉRON - Isabelle VEYRAT-MASSON - Georges VIGNAUX - Lorenzo VILCHES - Michel WIEVORKA - Uli WINDISCH - Yves WINKIN - Christoph WULF SECRÉTARIAT DE RÉDACTION Thierry Sylvain BAUDART - Frédérique BENGUIGUI-CLAVEAU - Nicole BRUNET-MAUCOURT - Françoise DELAVEAU - Marie-Christine PAOLETTI - Catherine PRIOUL

HERMÈS 37, 2003

13


LES TITRES DES 3 7 NUMÉROS D'HERMÈS Pour plus d'informations sur les publications, consulter le site: http:www.wolton.cnrs.fr Hermès 1

1988, 225 pages

Théorie politique et communication Coordonné par Christian Lazzeri et Jean-Pierre Chrétien-Goni Hermès 2

1988, 250 pages

Masses et politique Coordonné par Dominique Reynié Hermès 3

1988, 188 pages

Psychologie ordinaire et sciences cognitives

Hermès 8-9 1990, 415 pages Frontières en mouvement Coordonné par Daniel Dayan, Jean-Marc Ferry, Jacques Sémelin, Isabelle Veyrat-Masson, Yves Winkin et Dominique Wolton Hermès 10

1992, 360 pages

Espaces publics, traditions et communautés Coordonné par Jean-Marc Ferry Hermès 11-12 À la recherche du public Réception, télévision, médias Coordonné par Daniel Dayan

1993, 464 pages

Hermès 13-14 1994, 444 pages Espaces publics en images Coordonné par Daniel Dayanet Isabelle Veyrat-Masson

Coordonné par Pascal Engel Hermès 4

1989, 255 pages

Le nouvel espace public Coordonné par Dorine Bregman, Daniel Dayan, Jean-Marc Ferry et Dominique Wolton Hermès 5-6

1990, 404 pages

Individus et politique Coordonné par Erika Apfelbaum, Jean-Michel Besnier et Alexandre Dorna Hermès 7

Hermès 15 1993, 464 pages Augmentation et rhétorique. I Coordonné par Alain Boyer et Georges Vignaux Hermès 16 1995, 325 pages Augmentation et rhétorique. II Coordonné par Alain Boyer et Georges Vignaux Hermès 17-18 1995, 440 pages Communication et politique Coordonné par Gilles Gauthier, André Gosselin et Jean Mouchon

1990, 310 pages

Bertrand Russel. De la logique à la politique

Hermès 19

Coordonné par François Clements, pour la partie philosophique et logique et par Anne-Françoise Schmid pour la partie politique

Voies et impasses de la démocratisation Coordonné par Patrice Meyer-Bisch et Edward M. Swidersky

HERMÈS 37, 2003

1996, 312 pages

15


Les quinze ans d'Hermès, 1988-2003

Hermès 20

1997, 296 pages

Toutes les pratiques culurelles se valent-elles ? Création artistique, développement culturel et politique publique Coordonné par Jean-Pierre Sylvestre Hermès 21

1997, 288 pages

Sciences et médias

Hermès 29

2001, 288 pages

Dérison - Contestation Coordonné par Arnaud Mercier Hermès 30

2001, 262 pages

Stéréotypes dasn les relations Nord-Sud Coordonné par Gilles Boëtsch et Christiane Vilain-Gandossi

Coordonné par Suzanne de Cheveigné Hermès 31 1998, 228 pages

Hermès 22 Mimesis Imiter, représenter,

circuler

2001, 308 pages

L'opinion publique Perspectives anglo-saxonnes Coordonné par Loïc Blondiaux et Dominique Reynié avec la collaboration de Natalie La Balme

Coordonné par Susan Ossman Hermès 32-33 Hermès 23-24

1999, 396 pages

La cohabitation culturelle en Europe Regards croisés des Quinze, de l'Est et du Sud Coordonné par Eric Dacheux, Annie Daubenton, Jean-Robert Henry, Patrice Meyer-Bisch et Dominique Wolton

2002, 636 pages

La France et les Outre-mers L'enjeu multiculturel Coordonné par Tamatoa Bambridge, Jean-Pierre Doumenge, Bruno Ollivier, Jacky Simonin et Dominique Wolton 2002, 288 pages

Hermès 34 Hermès 25

1999, 312 pages

Le dispositif Entre usage et concept Coordonné par Geneviève Jacquinot-Delaunay et Laurence Monnoyer

L'espace, enjeux politiques Coordonné par Isabelle Sourbès-Verger Hermès 35

2003, 344 pages

Les journalistes ont-ils encore du pouvoir ? Coordonné par Jean-Marie Charon et Arnaud Mercier

Hermès 26-27

2000, 388 pages

www. démocratie locale. fr

Hermès 36

Coordonné par Eric Maigret et Laurence Monnoyer-Smith

Economie solidaire et démocratie

Hermès 28

Coordonné par Eric Dacheux et Jean-Louis Laville 2000, 320 pages

Hermès 37

Amérique latine Cultures et communication

Presse, Radio, Télévision,

Coordonné par Guy Lochard et Philipp R. Schlesinger

Coordonné par Régine Chaniac

16

2003, 256 pages

2003, 310 pages

L'audience Internet

HERMÈS 37, 2003


LES AUTEURS D'HERMÈS DE 1988 À 2003 Auteurs (555) du n° 1 au n° 37 (compris). Le chiffre entre parenthèses renvoie au numéro de la revue dans lequel l'auteur a écrit. Abélès Marc (4, 8-9) - Achache Gilles (1, 4) - Akoun André (19, 23-24, 28, 34) - Albizú Labbé Francisco (28) - Aldridge Meryl {35) - Alexander Jeffrey C. (8-9) - Alié-Monthieux Marijosé (32-33) - Al Wardi Sémir (32-33) - André Sylvie (32-33) - Ang Ien (11-12) Angleviel Frédéric (32-33) - Anscombre Jean-Claude (15, 16) - Apfelbaum Erika (5-6) Appé Olivier (37) - Arterton F. Christopher (26-27) - Assoun Paul-Laurent (5-6) - Aubry Paul (5-6) - Augey Dominique (35) - Auroux Sylvain (15, 16) Babadji Ramdane (23-24) - Babou Igor (21) - Baert Annie (32-33) - Baisnée Olivier (35) - Balima Serge Théophile (28) - Balme Stéphanie (34) - Bambridge Tamatoa (32-33) Baptista Joaquim (23-24) - Bardelot Brigite (29) - Bariki Salah-Eddine (30) - Bataille Georges (5-6) - Beauchamp Michel (15, 16, 17-18) - Bélanger André-Jean (17-18) - Belin Emmanuel (25) - Belloni Maria Luiza (8-9) - Benoit Sophie (37) - Bernabé Jean (32-33) - Bernheim Henri (5-6) - Berten André (25) - Bertile Wilfrid (32-33) - Berting Jan (30) - Bibler V.S. (18) - Binet Alfred (5-6) - Blaive Muriel (23-24) - Blanc Jérôme (36) Blanchard Pascal (30) - Blanchot Fabien (35) - Blondiaux Loïc (26-27, 31) - Bochmann Klaus (30) - Boëtsch Gilles (23-24, 30) - Bogdan Radu (3) - Bonnafous Simone (29) Bornhausen Stéphane (22, 23-24) - Bouchet Hubert (37) - Bouchindhomme Christian (10) - Boudon Raymond (4, 15, 16) - Bougnoux Daniel (5-6) - Bouillon Pascale (26/27) Boullier Dominique (26-27, 37) - Bourdon Jérôme (11-12) - Boure Robert (26-27) Bourricaud François (1) - Bouvier Alban (15, 16) - Boyer Alain (8-9, 15, 16, 36) Brackelaire Jean-Luc (25) - Brami Celentano Alexandrine (32-33) - Bras Jean-Philippe (23-24) - Bregman Dorine (4) - Breton Philippe (17-18) - Bridier Juliette (23-24) Bruneteaux Patrick (29) - Bryce James (31) - Bucolo Elisabetta (36) - Burac Gabrielle (32-33) - Burguière André (20) - Bursztyn Igal (13-14) - Bustamante Enrique (28) Caillet Elisabeth (20) - Canclini Néstor García (28) - Capparelli Sérgio (35) - Caramani Daniele (13-14) - Carcassonne Marie (22) - Carrilho Manuel Maria (15, 16) - CartierBressonjean (19) - Carvallo Fernando (10) - Caune Jean (20) - Cérézuelle Daniel ( 3 6 ) Chabrol Claude (23-24) - Champagne Patrick (17-18, 37) - Chaniac Régine (37) - Chanial Philippe (36) - Charlier Philippe (25) - Charon Jean-Marie (35, 37) - Charron Jean (15, HERMÈS 37, 2003

17


Les quinze ans d'Hermès, 1988-2003

16, 17-18) - Chartier Anne-Marie (20, 25) - Chaumont Jean-Michel (10) - Chauveau Agnès (13-14) - Chervin Jacqueline (21, 34) - Chevé Dominique (30) - Cheveigné Suzanne (de) (21) - Chevreux Marie-Dominique (37) - Chopin Olivier (34) - Chosson Jean-François (20) - Chrétien-Goni Jean-Pierre (2) - Ciavarini Azzi Giuseppe (32-33) Clavreul Jean (5-6) - Codello-Guijarro Pénélope (36) - Colas Dominique (7) - Combeau Yvan (32-33) - Confiant Raphaël (32-33) - Constant Fred (32-33) - Cooley Charles Horton (31) - Coray Renata (21) - Corner John (11-12, 21) - Cottet Jean-Pierre (37) Coulomb-Gully Marlène (29) - Culcer Dan (8-9) - Cultiaux Yolaine (23-24) - Curran James (11-12)Dacheux Éric (21, 23-24, 36) - Dahlgren Peter (13-14) - Da Lage Olivier (35) - Darde Jean-Noël (22) - Daubenton Annie (23-24) - David-Biais Martin (15, 16, 17-18) - Davies Martine (3) - Davis Simone (22) - Dayan Daniel (4,11-12,13-14) - de Barros Filho Clóvis (35) - Deconchy Jean-Pierre (19) - Dehee Yannick (34) - De Jaucourt (2) - Delbos Georges (32-33) - Demers François (15, 16, 17-18, 35) - Derville Grégory (29) Descamps Christian (10) - Desrosières Alain (2) - Devèze Jean (29) - Dewey John (31) Diabi Yahaya (28) - Domecq Jean-Philippe (20) - Dorna Alexandre (5-6,15,16,19) - dos Santos Suzy (35) - Doumenge Jean-Pierre (32-33) - Dubucs Jacques (15, 16) - du Chéné Amaury (32-33) - Duprat Annie (29) - Dupreel Eugène (2) - Dupuy Jean-Pierre (1) Durand Georges (28) - Durand Jacques (11-12, 32-33) - du Roy Albert (35) El Emary Naglaa (8-9) - El Khawaga Dina (34) - Elsenhans Hartmut (23-24) - Eme Bernard (36) - Emilsson Elin (28) - Engel Pascal (3)-Enriquez Eugène (18) - Escudero Chauvel Lucrecia (28) - Ewerton Fernando (8-9) Faberon Jean-Yves (32-33) - Farganel Jean-Pierre (30) - Fave-Bonnet Marie-Françoise (35) - Favreau Louis (36) - Fer Yannick (32-33) - Ferrari Gianpaolo (30) - Ferraton Cyrille (36)-Ferrié Jean-Noël (22,23-24,30)-Ferro Marc (19)-Ferry Jean-Marc (4,10) - Feuerhahn Nelly (29) - Filek Jacek (18) - Fischer Jean-Paul (22) - Fishkin James S. (31) -Flageul Alain (25)-Flaysakier Jean-Daniel (21)-Fleiner Thomas (18)-Floris Bernard (36) - Fornari Franco (5-6) - Foucault Michel (2) - Foucher Michel (18) - Fourdin Monique (26-27) - Fraisse Emmanuel (37) - Fraisse Laurent (36) - Fraser Nancy (31) Freitas Perez Léa (35) - Frère Marie-Soleil (28) - Frison-Roche Marie-Anne (15, 16) Fromm Erich (5-6) - Frybes Marcin (23-24) - Fuma Sudel (32-33) - Fusulier Bernard (25) Gaillard Florence (34) - Gallini Clara (2) - Gallup George (31) - Gardin Laurent (36) Gauthier Gilles (15, 16, 17-18) - Gavin Neil (21) - Gebert Konstanty (23-24) - Geisser 18

HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

Vincent (23-24) - Gens Jean-Claude (20) - Gentès Annie (22) - Gerstlé Jacques (4) Gheude Michel (13-14) - Ghiglione Rodolphe (5-6, 11-12, 15, 16) - Giannoni-Pasco Ariane (34) - Gille Bernard (32-33) - Gingras Anne-Marie (15, 16, 17-18) - Ginsberg Benjamin (31) - Girard Augustin (20) - Goddard Peter (21) - González A. Jorge (28) Gosselin André (15, 16, 17-18) - Gouba Firmin (28) - Goujon Daniel (36) - Grétillat Francis (15, 16) - Grevisse Benoît (35) - Gribomont Cécile (29) - Grize Jean-Biaise (15, 16) - Groc Gérard (23-24) - Guébourg Jean-Louis (32-33) - Guérin Isabelle (36) Gusfield Joseph R. (8-9) - Guttenplan Samuel (3) Hall Stuart (28) - Hallin Dan (13-14) - Hamon Augustin (5-6) - Heinich Nathalie (20, 29) - Henry Jean-Robert (21, 23-24, 30) - Hert Philippe (25) - Hess Remi (26/27) - Hesse Kurt R. (13-14) - Hoogaert Corinne (15, 16) - Hookway Christopher (7) - Ho Tin Noe Jean-Claude (32-33) - Hunyadi Mark (10) - Hurtado-Beca Cristina (10) - Huyghe François-Bernard (22) Ibrahim Amr Helmy (34) - Idelson Bernard (32-33) - Il'in Viktor (19) - Issler Bernardo (35)Jacques Francis (7) -Jacquinot-Delaunay Geneviève (25) -Janine Ribeiro Renato (35) Jardim Pinto Celia Regina (8-9) - Jauvion Alain (22) - Jeanneret Yves (23-24, 37) Jézéquel Jean-Pierre (37) -Jordao Fatima (8-9) - Jouët Josiane (37) - J u d e t de La Combe Pierre ( 1 0 ) Kapchan Deborah (22) - Karpik Lucien (35) - Katz Elihu (4, 11-12) - Kaufmann JeanPierre (18) - Kelsen Hans (2) - Kiyindou André-Alain (28) - Klein Annabelle (25) Kolm Serge Christophe (18) - Kornhauser William (2) - Kotsi Filareti (21) - Krasztev Peter (23-24) - Kurtovitch Ismet (32-33) - Kurzweil Edith (5-6) Laamiri Mohammed (30) - Labache Lucette (32-33) - La Balme Natalie (31) - Labarrière Jean-Louis (1) - Laberge Yves (21) - Lagneau Eric (35) - Lahmar Mouldi (30) - Laigneau Monique (20) - Lanni Dominique (20) - Lannoy Pierre (25) - Laulan Anne-Marie (1112, 35, 37) - Laurier Daniel (3) - Lavaud Jean-Pierre (11-12) - Lavigne Alain (15, 16, 1718) - Laville Jean-Louis (36) - Lazzeri Christian (1) - Le Bart Christian (26-27) - Lebeau André (34) - Leblanc Gérard (17-18, 25) - Le Bohec Jacques (26-27) - Lecomte JeanPhilippe (29) - Le Diberder Alain (37) - Lefébure Pierre (29) - Lefebvre Alain (20, 2627) - Lefranc Sandrine (31) - Legendre Pierre (5-6) - Le Guern Philippe (26-27) Leleivai Hapakuke Pierre (32-33) - Lellouche Raphaël (1) - Lemieux Vincent (17-18) Lempert Emmanuel (34) - Le Ny Jean-François (19) - Lercari Claude (32-33) - Leroux HERMÈS 37, 2003

19


Les quinze ans d'Hermès, 1988-2003

Pierre (26-27, 29) - Leteinturier Christine (35) - Lettieri Carmela (29) - Leuprecht Peter (23-24) - Lévy Marie-Françoise (13-14) - Lickova Eva (8-9) - Liebes Tamar (11-12) Lippmann Walter (31) - Lits Mark (25) - Livet Pascal (4) - Livet Pierre (1) - Livingston Sonia (11-12) - Lochard Guy (25, 28) - Lockwood Michael (7) - Logsdon John (34) Loiseau Gérard (26-27) - Lorcerie Françoise (23-24) - Louis Patrice (32-33) -Lowel Abbott Lawrence (31) - Lubeck Ian (5-6) - Lunt Peter (11-12) Macé Eric (11-12, 31, 37) - Machado da Silva Juremir (35) - Macherey Pierre (2) Maigret Eric (26-27, 30) - Malandrin Gilles (36) - Malavialle Anne-Marie (34) - MalogneFer Gwendoline (32-33) - Mancini Paolo (13-14) - Mandelsaft Germaine (28) - Marchetti Dominique (35) - Marimoutou Jean Claude Carpanin (32-33) - Marion Philippe (13-14) Marramao Giacomo (1) - Martin Marc (21) - Martín-Barbero Jésus (28) - Mathien Michel (11-12, 35) - Mauduit Jean (37) - Mayol Pierre (20) - Mehl Dominique (13-14) Mercier Arnaud (13-14, 19, 20, 21, 29, 35) - Messeder Perdra Carlos A. (8-9) - Messner Francis (23-24) - Meunier Jean-Pierre (25) - Meyer Michel (15, 16) - Meyer-Bisch Patrice (19, 23-24) - Michalon Thierry (32-33) - Michel Jean (35) - Micoud André (20) - Miège Bernard (17-18) - Miller David (15, 16) - Minet Pierre (21) - Moirand Sophie (21) Mokaddem Hamid (32-33) - Molinie Georges (15) - Monnoyer-Smith Laurence (21,25, 26-27, 31) - Morley David (11-12) - Morris Nancy (28) - Moscovici Serge (5-6) Véronique Mottier (13-14) - Mouchon Jean (13-14, 17-18) - Mougeotte Etienne (37) Moyse-Faurie Claire (32-33) - Mugny Gabriel (5-6) Nadeau Robert (15, 16) - Navet Georges (10) - Neale Stephen (7) - Nel Noël (25) Nersesiark Vladimir S. (19)-Neuffer Philippe (32-33)-Neveu Erik (17-18)-Nivat Anne (18)-Noelle-Neumann Elisabeth (4)-Nowicki Joanna (23-24) - Nyiri Christoph ( 1 8 ) Oléron Pierre (15, 16) - Ollivier Bruno (32-33) - Ortiz Renato (28) - Ossipow William (13-14) - Ossman Susan (21, 22) - Ouasti Boussif (30) Padioleau Jean-Gustave (35) - Page Benjamin L (31) - Paia Mirose (32-33) - Pailliart Isabelle (26-27) - Paquot Thierry (10) - Parodi Jean-Luc (4) - Pasco Xavier (34) - Paskov Victor (10) - Pasquier Dominique (22) - Patriat Claude (20) - Patrin-Leclère Valérie (37) - Peeters Hugues (25) - Pélissier Nicolas (35) - Perraya Daniel (25) - Perret Jean Baptiste (22) - Perez Juan A. (5-6) - Perrot Jean-François (20) - Peters John Durham (13-14) Petit Alain (15, 16) - Pettigrew Louise (15, 16) - Pierron Jean-Philippe (20) - Pillet Gonzague (19) - Plantin Christian (15, 16) - Plas Régine (5-6) - Poche Bernard (23-24) - Poinclou Jean-Baptiste (26-27) - Poirier Jacques (20) - Poirine Bernard (32-33) Poirrier Philippe (20) - Poisat Jacques (36) - Poitou Jean-Pierre (25) - Polo Jean-François 20

HERMÈS 37, 2003


Les quinze ans d'Hermès, 1988-2003

(23-24) - Porebski Czeslaw (18) - Poujol Geneviève (20) - Prado Jr Plinio W. (1, 10) Proulx Serge (37) - Proust Joëlle (15, 16) Querrien Anne (10, 26-27) - Quillot Roland ( 2 0 ) Ramognino Nicole (11-12) - Regamey Amandine (29) - Regnault Jean-Marc (32-33) Renaut Alain (23-24) - Révauger Jean-Paul (32-33) - Reynié Dominique (2, 4, 10, 31) Richard Jean-François (26/27) - Richardson Kay (21) - Rieffei Rémy (4, 35) - Rigaud Jacques (37) - Rigo Bernard (32-33) - Riutort Philippe (29) - Rivenc François (7) Robillard Serge (23-24) - Robinson Howard (3) - Rocard Michel (32-33) - Rochlitz Rainer (10) - Rochoux Jean-Yves (32-33) - Rodrigues da Silva Helenice (8-9) - Roeh Itzhak (8-9) - Rosengren Karl Erik (11-12) - Rosier Irène (15,16) - Rothenbuhler Eric W. (13-14) - Rouilhan Philippe (de) (7) - Rouleau-Berger Laurence (36) - Rouquette MichelLouis (5-6) - Roustang Guy (36) - Roviello Anne-Marie (10) - Ruellan Denis (21, 35) Ryan Alan ( 7 ) Saadi Hacène (30) - Sabit Audrey (29) - Saffrais Guylaine (19) - Sainsbury Mark (7) Saint-Martin Monique (de) (20) - Sam Léonard (32-33) - Samain Etienne (28) - Sangla Raoul (32-33) - Santiso Javier (19) - Sautedé Éric (37) - Savarese Éric (30) - Schlesinger R. Philip (8-9, 28) - Schmid Anne-Françoise (7) - Schnapper Dominique (8-9,20,23-24) - Schröder Kim (11-12, 13-14) - Schudson Michael (13-14) - Sedakova Olga (23-24) Serdaroglu Ozan (30) - Sève Bernard (15, 16) - Shapiro Robert Y. (31) - Sicard MarieNoëlle (21) - Sicard Monique (17-18, 21, 22) - Sigov Konstantin (23-24) - Silverstone Roger (22) - Simonin Jacky (22, 26-27, 32-33) - Sinapi Michèle (22) - Souchon Michel (11-12, 37) - Soulez Guillaume (19) - Soupé Dominique (32-33) - Sourbès-Verger Isabelle (34) - Spitz Chantai (32-33)-Spitz Jean-Fabien, (1) - Stavileci Masar (23-24) - Steimberg Oscar (28) - Stephenson Adam (7) - Stoetzel Jean (2) - Suzuki Kazuto (34) - Swiderski Edward M. (19) - Sylvestre Jean-Pierre ( 2 0 ) Tabboni Simonetta (37) - Taguieff Pierre-André (8-9) - Tarasov Alexander (34) - Tarde Gabriel (5-6) - Tassin Etienne (10) - Tchakhotine Serge (2) - Tessier Marc (37) - Tétu Jean-François (17-18) - Thomas Fabienne (25) - Tirard Stéphane (35) - Tisseron Serge (25) - Touraine Alain (4) - Traversa Oscar (28) - Tsagarousianou Roza (26-27) Uréña Rib Pedro (32-33)Valenta Muriel (28, 31) - Vallat David (36) - Van de Gejuchte Isabelle (29) Vandendorpe Florence (25) - Van Ginneken Jaap (5-6) - Van-Praët Michel (20) - Varela HERMÈS 37, 2003

21


Les quinze ans d'Hermès, 1988-2003

Lia (28) - Vasquez-Bronfman Ana (10) - Vasylchenko Andriy (23-24) - Vatchnadze Gueorgui (8-9) - Vedel Thierry (26-27) - Verger Fernand (34) - Vergès Françoise (32-33) - Verhaegen Philippe (25) - Vermeren Patrice (10) - Vernaudon Jacques (32-33) - Vernet Marc (13-14) -Véron Eliséo (4, 13-14, 17-18, 21) - Veyrat-Masson Isabelle (5-6, 8-9, 1314, 21, 32-33) - Viallon Philippe (21) - Viera John David (13-14) - Vignaux Georges (15, 16) - Villain-Gandossi Christiane (23-24, 30) - Vincent Guy (20) - Visier Claire (23-24) Vittin Théophile (20) - Vorms Anne (8-9) - Vuillemin Jules ( 7 ) Walter Jacques (29) - Watin Michel (32-33) - Watine Thierry (35) - Weisbein Julien (36) -Weissberg Jean-Louis (25) - Widmer jean (19)-Windisch Uli (15, 16, 23-24)-Winkin Yves (13-14, 22, 32-33)-Wittersheim Éric (32-33)-Wohlfarth Irving (10)-Wolf Mauro (11-12) -Wolff Éliane (32-33) - Wolff Francis (15, 16) - Wolton Dominique (4, 8-9, 10, 11-12, 13-14,15,16,17-18,21,22,23-24,26-27,28,32-33,35,37)-Woodfield Andrew (3, 7) - Worms Jean-Pierre (23-24) - Wrona Adeline (22) - Wulf Christoph (22) Wunenburger Jean-Jacques (20) Zaller John (31) - Zappalá Annick (21) - Zask Joëlle (31) - Zaslavsky Danièle (28) Zelizer Barbie (8-9)-

22

HERMÈS 37, 2003


Dominique Wolton Laboratoire Communication

et Politique, CNRS, Paris

AVANT-PROPOS Audience et publics : économie, culture, politique

Ce numéro ouvre une analyse d'autant plus nécessaire, que le succès des mesures d'audience depuis vingt ans n'a guère fait l'objet de réflexions. Pourtant dans les chaînes, les instituts, une expérience, et une compétence se sont constituées. En fait, tout a été très vite. Il a fallu inventer des outils au fur et à mesure que se constituait cette économie de la communication, et que l'on passait d'une culture du service public à une économie privatisée des publics. Ce numéro a donc pour ambition de contribuer à un retour d'analyse, sur les différentes mesures d'audience. Ouvrir un espace de réflexion pour comparer historiquement et théoriquement, et selon les techniques, les différents résultats, les réussites, les échecs, les problèmes. Si la radio et la presse avaient une expérience du rapport entre les publics et les publics marchands, c'est sans doute l'entrée de la télévision dans l'économie de la communication qui a généralisé le succès des mesures d'audience; les enjeux économiques sont devenus à la taille de l'importance de la télévision et de l'image. Et depuis une petite dizaine d'années l'émergence de publics fragmentés en, radio, télévision, Internet avec la problématique des publics en réseau oblige à affiner et à réfléchir de nouveau aux outils pour comprendre un peu mieux les publics, la manière de les mesurer, les compter, les mobiliser. HERMÈS 37, 2003

27


Dominique Wolton

En un mot, de 1950 à 1980, on a vécu avec une conception plus culturelle et politique du public, des publics et du service public. De 1980 à 2000 on a vu l'émergence d'outils liée au fait que les publics et le public devenaient au moins autant une marchandise qu'une valeur. Avec l'élargissement et la différenciation des systèmes d'information et de communication, la mondialisation, la dérégulation, une réflexion critique sur la communication, son rapport avec la culture et la politique, le service public et l'identité nationale, doit s'ouvrir. Ainsi qu'une analyse des rapports entre publics et audience, économie et culture, société et politique. Cinq éléments sont à rappeler pour ouvrir cette réflexion.

L'outil et le concept D'abord, il y a le même décalage théorique entre mesure d'audience et public qu'entre le sondage et l'opinion publique. L'ingéniosité et l'efficacité de ces outils psychosociologiques, inventés dans les années 1930 aux USA, et généralisés dans les démocraties à partir des années 1960/1970 a fait croire pendant trente ans que toute réflexion sur l'opinion publique passait, et se résumait aux sondages. Les sondages ont «mangé», assimilé, identifié toute analyse de l'opinion publique. Le quantitatif représentatif absorba le qualitatif au point de disqualifier toute autre réflexion. Tout autre discours était «littéraire», «subjectif», les sondages «objectivant» l'opinion publique, rationalisaient la réflexion à son endroit, et devenaient finalement l'équivalent d'une théorie de l'opinion publique. Il a fallu les premiers échecs des sondages lors des élections législatives et surtout présidentielles, aux États Unis, en Europe et en France dans les années 2000 pour qu'un début d'inquiétude émerge, qui ne suscite pas encore de retour de réflexion théorique sur l'opinion publique. Ce même phénomène doit être rappelé pour l'audience. Gérer la simplification du comportement du public et des publics au travers des mesures d'audience depuis 20 ans a eu l'avantage de donner une figure, une représentation au public qui étaient longtemps resté un concept politique et culturel, relativement indépendant de la connaissance empirique des publics. Pourtant la presse et la radio avaient déjà établi un rapport entre une logique sociale et économique, mais sans donner naissance à une réflexion sur l'audience. À la télévision puisque les mesures d'audience ont permis de construire son économie, on en est arrivé, comme pour l'opinion publique, à identifier l'outil et le concept. Il y eut isomorphie entre les deux. Mais c'est aussi les difficultés qui vont apparaître avec les 28

HERMÈS 37, 2003


Avant-propos

enjeux économiques, politiques et culturels liés à la diversification des systèmes d'information et de communication qui obligeront à sortir du cadre culturel et à réouvrir une réflexion plus sérieuse entre public et audience. Et pas seulement en introduisant des variables qualitatives au demeurant tout à fait nécessaires. Il faudra autre chose. De même que la limite des sondages, à traduire la complexité et la mouvance des opinions publiques obligera à un retour théorique de réflexion sur les rapports entre publics et opinion publique, de même faudra t-il réfléchir de nouveau sur les mesures d'audience pour mieux comprendre les publics dans leurs rapports aux dimensions économiques, sociales, culturelles et politiques.

Le statut du public Le deuxième changement concerne le statut même de public. Avec la croissance de la communication, on a cru que l'on passait définitivement à une conception économique du public. Toute réflexion culturelle serait surdéterminée par l'économie, notamment avec la mondialisation des industries culturelles. C'est à l'inverse que l'on va assister: il y aura le retour d'une réflexion critique, politique sur le statut des publics et des rapports entre public et audience. Déjà en 1992 dans l'introduction au numéro 11-12 d'Hermès, «Pour le public», je disais que «l'audience ne mesure pas la demande du public, mais la réaction à l'offre de programme» (p. 12). Ce qui est tout autre chose. Et il y a de cela 12 ans... Ce décalage va être de plus en plus net avec la croissance des industries de programme, et la critique qui en sera faite dans le cadre de l'altermondialisation. On posera la question du conflit entre une conception «économique» du public, en partie de l'audience, et une conception culturelle, politique de ce même public. Notamment au travers des notions de services publics, grands publics, publics généralistes... Autrement dit après avoir été fasciné pendant près d'un demi-siècle par le public de masse, puis avoir découvert les délices de la segmentation en autant de publics qu'il y a de marchés potentiels, de techniques et de services offerts, on reviendra à la question de base de toute problématique de la communication: «Qu'est-ce qui réunit des milliers et des millions d'individus au-delà de ce qui les distingue et les individualise?». L'économie devait tout simplifier parce qu'elle ajustait une offre et une demande, en réalité elle suscite par la suite une réflexion sur, la constitution du lien social, l'identité culturelle, le sentiment d'appartenance à une «société individualiste de masse». Si tout le monde fait ce qu'il veut, quand il veut, comment, par ailleurs, retrouver du collectif ? Voire de l'égalité dont on ne voulait plus beaucoup, tant on pensait que la liberté était la solution ! On retrouve pour la communication les HERMÈS 37, 2003

29


Dominique Wolton

contradictions de la «société individualiste de masse». Après avoir voulu l'égalité puis surtout la liberté, les individus veulent finalement les deux. Si la critique, notamment par les mouvements altermondialistes, ne s'est pas encore saisie des questions de culture, d'information, de communication, cela sera bientôt le cas. Non seulement pour réfléchir à la régulation des industries culturelles, mais aussi pour réfléchir aux limites des processus, de segmentations. En réalité on assistera à la fois à une réflexion sur le statut des publics au sein des Etats Nations et sur la question de la cohabitation culturelle au plan mondial. Comme je l'écrivais en 1992, «derrière la question passionnante des liens entre les publics, le public et le statut du grand public, se joue une théorie du lien social dans la société individualiste de masse où la hiérarchie et l'incommunication entre les milieux sociaux sont à la mesure des idéaux de liberté et d'égalité, par ailleurs officiellement promus. Cette contradiction est, comme j'ai essayé de le montrer, particulièrement importante pour la communication. Plaider, comme je le fais depuis de nombreuses années à travers plusieurs livres en faveur du grand public, n'est ni un idéalisme, ni un archaïsme, mais une option de fond qui n'en exclue aucune autre. À condition à chaque fois de situer le débat au niveau théorique qui est le sien et de ne pas confondre possibilités techniques, déréglementation, profits et théorie de la télévision et des publics. Toute théorie du public implique une théorie de la télévision, et finalement une représentation de la société. Les arguments empiriques qui condamnent le concept de grand public au nom de la double évolution des techniques et des marchés ressemblent à ceux qui régulièrement dans l'histoire politique condamnent le concept de démocratie à l'aune des détournements dont il est régulièrement l'objet» (Hermès n° 11-12, 1992, p. 12). Aujourd'hui, ce numéro souhaite être un révélateur de cette réflexion sur les rapports entre audience, publics, culture, société, et politique. Jusqu'où la mondialisation des rapports culturels, sociaux et politiques ? L'économie de la communication présentée, il y a une vingtaine d'années, comme le symbole d'une sorte de «privatisation» de la société, suscite finalement une réflexion critique concernant la place respective du politique, du culturel et de l'économique dans tout ce qui concerne la compréhension de l'audience, du comportement des publics, des besoins et de la demande, formidable effet de boomerang : la réflexion critique, revient là ou le triomphe de l'économie devait permettre l'élimination définitive d'une vision trop normative de ce qu'est le public... D'ailleurs Hermès est un peu le trait d'union entre vingt ans d'une vision de plus en plus économique du public et le retour d'une réflexion plus générale sur les rapports entre public, société, politique et culture. Ce retournement de problématique relancera une analyse, non seulement sur le public, la réception, le droit, la demande, mais aussi sur les effets. Pendant les trente premières années des médias, on s'est en effet beaucoup intéressés à la production et l'on a craint les effets en termes de standardisation, influence, manipulation dans la 30

HERMÈS 37, 2003


Avant-propos

perspective de l'école de Francfort. Les médias devaient «aliéner» les peuples. Puis constatant les effets plus limités des médias, on a découvert l'importance des conditions de la réception qui permettait de mettre en avant une réflexion sur l'autonomie du récepteur. Le récepteur n'est pas en ligne avec le message et l'émetteur. Il y a au moins autant négociation qu'imposition. Ce qui rend compliquée la réduction de la réception à la simple quantification par l'audience. Aujourd'hui le retour d'une réflexion critique va bien sûr relancer une analyse des rapports entre production, réception, offre et demande. Mais surtout l'abondance inimaginable d'images et d'informations, il y a 30 ans, va également obliger à réouvrir une réflexion sur les effets, et sur la séquence productioneffet-réception. Hier, dans un contexte encore rare d'économie de la communication les publics finalement négociaient et il fallait comprendre la réception. Demain, dans un univers multimédia, où l'offre est beaucoup nombreuse, mais aussi beaucoup plus standardisée, il faudra réouvrir une réflexion sur la question des effets qui hier, avait pu être traitée de manière finalement plus rassurante.

L'audience n'est pas une catégorie naturelle Réfléchir à une théorie de la communication, non seulement technique et économique, mais peut-être d'abord culturelle et politique, oblige évidemment à comprendre comment l'audience n'est jamais une catégorie naturelle. C'est une réalité construite, et une représentation a posteriori. Il faut éviter au marché de l'audience les mêmes difficultés que celles visibles aujourd'hui dans le décalage entre sondages et opinion publique. La complexité du comportement des publics, notamment avec l'augmentation de l'offre, la diversité des supports, l'expérience des jeunes générations, pourrait également susciter les mêmes décalages entre publics et audience, qu'entre sondages et opinion publique. Réfléchir sur l'audience comme réalité construite contribue à la production de ces connaissances si nécessaire pour mieux comprendre les rapports envahissants aujourd'hui, entre culture et communication, économie et société, politique et culture. En fait, là-aussi, les faits ont été très vite, plus rapides que la réflexion. Si, par exemple, l'opposition entre logique d'offre et de demande a été hier utile, elle est aujourd'hui insuffisante pour comprendre la complexité des mécanismes de négociations, cognitifs, culturels et politiques existant au sein des publics. La simplicité des outils de mesure d'audience, qui a eu son heure d'efficacité reflète finalement aujourd'hui le manque de connaissance approfondie que nous avons depuis un demi-siècle des rapports entre les offres de programmes et la diversité des publics. HERMÈS 37, 2003

31


Dominique Wolton

L'intérêt des nouvelles technologies L'avantage des nouvelles techniques est de passer de l'idée de consommation à celle d'usage, et à une économie plus complexe des rapports entre offre, demande, audience. Pour ce secteur, l'audience n'est pas un outil très approprié. Cela accélérera une réflexion critique sur les modèles ayant permis de construire une économie des mesures. On a souvent confondu la gestion d'un secteur en expansion, avec sa compréhension. L'existence d'outils simples ayant une certaine efficacité, a permis de reporter à plus tard des efforts plus complexes, et inévitables de réflexion. En tous cas, l'inadaptation des mesures d'audience, aux nouvelles techniques de communication, repose la question de l'invention d'autres outils, pour comprendre un service qui ne relève pas directement d'une problématique de la communication. Ce n'est pas parce que l'on transmet des informations et que l'on utilise des techniques de communication, qu'il s'agit de communication. Internet n'est pas un média. C'est autre chose, qui ne signifie pas une hiérarchie avec les autres médias, mais permet de comprendre que les problèmes ne sont pas de même nature. Cela prouve d'ailleurs qu'en matière de communication, l'essentiel n'est pas dans les techniques, mais dans le dispositif. Et si demain les services de la radio, de la télévision, et d'Internet, sont disponibles sur les mêmes supports, cela ne voudra évidemment pas dire que tout y est de la communication ! Justement, l'augmentation et la diversification des services de toute sorte, oblige à distinguer plus nettement ce qui est information, service, transmission, relation, interaction et communication. Et à mieux comprendre la diversité des rapports à l'information, à la relation et à la communication qu'entretiennent les individus et les collectivités. Là aussi, l'économie des nouveaux services est un accélérateur de réflexion pour mieux comprendre ce qui distingue des techniques qui diffusent toutes de l'information mais ne renvoient ni aux mêmes attentes ni au même rapport au réel. L'économie va, paradoxalement venir au secours d'une réflexion de fond sur la diversité des enjeux et des situations de la communication.

La faiblesse des théories L'efficacité, et les limites des techniques d'audience sont révélatrices d'un phénomène plus général : la faiblesse des outils, et avec eux souvent des théories dont nous disposons pour comprendre la réalité contemporaine. En fait, on n'a pas dépassé les statistiques. Ou 32

HERMÈS 37, 2003


Avant-propos

plutôt, leur efficacité partielle, a suffi. La simplicité des outils concernant l'audience n'est que le symptôme de la faiblesse des outils nécessaires pour comprendre la société individualiste de masse où les deux dimensions contradictoires, de la liberté individuelle et de l'égalité sont constamment en présence. Tout particulièrement pour la communication où l'on souhaite de plus en plus être libre et performant individuellement, tout en étant simultanément engagé dans des processus collectifs ou l'égalité est préservée. On devine comment cette problématique sera de plus en plus compliquée, au fur et à mesure qu'avec la mondialisation, les industries devront à la fois s'ouvrir aux autres cultures du monde et cohabiter avec elles ! En tous cas, l'émergence de l'économie et les fantastiques progrès techniques permettent de comprendre que dans ce secteur de la communication, l'essentiel paradoxalement n'est pas dans la technique ou dans l'économie, mais dans une réflexion théorique. Quelle philosophie de la communication veut-on et en rapport avec quelle théorie de la société et de la démocratie ? La technique et l'économie nous montrent les insuffisances de la réflexion théorique, et l'obligation d'y revenir, si l'on veut éviter un terrible effet de boomerang où tout nous sera renvoyé pèle mêle, nous les apprentis d'une communication réduite aux outils et aux marchés. Dans quelques années, ce numéro sera peut-être considéré comme un des moments qui aura permis de passer à une autre économie de la mesure d'audience, c'est-à-dire, à une autre vision de la communication et de ses enjeux. En fait, on pourrait résumer la question à ceci : « Dis moi quels outils tu utilises pour la communication et je te dirai quelle théorie de la communication la sous-tend. » Ce sont les usagers, les sociétés et les contradictions qui vont progressivement obliger non seulement à affiner les outils, mais aussi à approfondir les théories de la communication. Autrement dit, Hermès, au travers de ce numéro est fidèle à son orientation : rappeler l'importance des enjeux théoriques et de connaissance pour tout ce qui concerne la communication. Accroître l'exigence intellectuelle. Comprendre comment la communication est une référence et une activité extrêmement compliquée. A la fois pour sa place dans les valeurs et les intérêts de l'Occident mais aussi pour les obligations de cohabitation culturelle qui sont à l'échelle du monde un des grands enjeux duXXIesiècle. Inventer des outils plus sophistiqués, c'est aussi reconnaître que l'objet théorique, la communication, entre les hommes et entre ceux-ci et les machines, est aussi une question sophistiquée. La connaissance ne remplace pas la politique mais elle peut néanmoins y aider. Ce numéro est un appel, comme tous finalement, à un peu plus d'esprit critique, d'innovation, d'invention. Améliorer la qualité des outils qui mesurent ou évaluent nos activités de communication, c'est reconnaître que l'activité communication en vaut la peine. Et que l'on peut améliorer les programmes et les services. Compter, mesurer, c'est aussi un moyen pour relancer une réflexion sur la qualité de l'offre et plus généralement sur les HERMÈS 37, 2003

33


Dominique Wolton

messages qui circulent. C'est également reconnaître que cette activité, la communication, tentative sans cesse renouvelée, et souvent défaillante d'échanges et de compréhension entre les hommes mérite un peu plus d'attention qualitative, théorique et finalement humaine que ce à quoi on assiste la plupart du temps dans son économie. Si l'information et la communication sont aujourd'hui largement des marchandises, c'est à la condition de ne pas oublier qu'elles sont d'abord des valeurs.

34

HERMÈS 37, 2003


Régine Chaniac Institut national de l'audiovisuel (Ina)

INTRODUCTION L'audience, un puissant artefact

L'ensemble des médias traditionnels (presse, radio, TV) sont des médias de masse. Ils s'adressent à un large auditoire, généralement composé d'individus ou de groupes d'individus isolés les uns des autres, anonymes, répartis sur un territoire plus ou moins vaste et sans possibilité de réponse immédiate. Dans ce contexte de communication «à sens unique», la connaissance de l'auditoire et des conditions de réception est par définition problématique: quelles sont les personnes touchées, à quelles catégories socio-professionnelles appartiennent-elles, comment reçoivent-elles les messages (réception délibérée ou fortuite, individuelle ou collective, attentive ou distraite, etc.), comment perçoivent-elles, interprètent-elles, les messages reçus ? Ceux qui conçoivent les lignes éditoriales, les grilles de programmes, de même que ceux qui produisent les messages - articles, émissions de radio, programmes de télévision en sont réduits à imaginer leur public sans pouvoir le rencontrer, le connaître, entrer en dialogue avec lui. D'où un certain nombre d'outils plus ou moins satisfaisants, qualitatifs ou quantitatifs, pour appréhender ce public, depuis le courrier des lecteurs - réponse spontanée de récepteurs non représentatifs - les réunions de groupe ou les entretiens réponse provoquée d'un échantillon non représentatif - jusqu'au sondage - réponse provoquée d'un échantillon représentatif. Parmi tous ces outils, les sondages d'audience occupent une place particulière. Généralement, l'existence même du média est en effet tributaire de sa capacité à attirer le plus grand nombre possible de représentants du «public-cible». Existence économique HERMÈS 37, 2003

35


Régine Chaniac

puisque tout ou partie des recettes provient de la publicité et donc de l'aptitude du média à rejoindre de larges auditoires, à être performant sur son segment de marché. Mais aussi existence politique pour les médias appartenant au service public et financés par la redevance ou sur le budget national, qui doivent prouver leur légitimité en touchant un public non négligeable. L'audience est l'indicateur qui permet de fixer la valeur des espaces publicitaires mis en vente et a essentiellement été formatée dans ce dessein. Elle exprime un nombre de contacts, c'est-à-dire d'individus touchés par tel ou tel support. En tant qu'opérateurs essentiels de la viabilité économique des médias, les résultats d'audience sont les données les plus régulières, les plus systématiques et les plus légitimes concernant la quantification des auditoires atteints. Du même coup, l'audience s'impose comme un puissant système de consultation du public, qui donne l'état le plus objectif de ses préférences, de sa satisfaction, de ses goûts. Elle prend le pas sur toutes les autres instances de jugement de l'offre (la critique) ou de représentation de la demande, pour justifier et évaluer les décisions de programmes. Cette ambiguïté première, qui la distingue d'emblée des autres outils de connaissance du public, place l'audience au cœur de l'activité des médias et explique l'intérêt et les réactions contradictoires qu'elle suscite. Ce dossier d'Hermès a pour objet d'éclairer le rôle de la mesure d'audience dans le fonctionnement des médias. Quelles sont tout d'abord ses principales caractéristiques, communes à tous les médias ou spécifiques de l'un à l'autre? Comment les outils, les méthodes et les indicateurs utilisés évoluent-ils en fonction des situations de concurrence ? Quel est l'impact sur l'offre de l'importance économique des résultats d'audience ? Dans quelle mesure peut-on souscrire à la fameuse formule de la «dictature de l'audimat» et une politique éditoriale peut-elle être fondée sur la seule expectative du résultat d'audience ? Nous appelons mesure d'audience ou sondage d'audience le système qui fournit régulièrement des données statistiques permettant de quantifier les auditoires touchés par les différents médias. Par système, on entend l'agencement à la fois institutionnel, méthodologique et technique qui assure la livraison de données, conformément aux besoins de ceux qui le financent et l'utilisent. Ce système est généralement unique pour une même famille de médias (les radios, les chaînes généralistes, les quotidiens, etc.), puisqu'il délivre des informations permettant de classer les différents supports, jouant un rôle de thermomètre pour les acteurs de la profession (supports vendeurs d'espaces, publicitaires acheteurs et leurs représentants, agences ou centrales d'achat). Les études d'audience, parfois entendues au sens large comme l'ensemble des études visant à mieux connaître le public de tel ou tel média (en anglais, audience signifie public), n'entrent pas dans le présent propos à partir du moment où elles ne débouchent pas sur le calcul régulier de résultats d'audience. Ces études, menées notamment au sein des différents 36

HERMÈS 37, 2003


Introduction

médias à des fins de marketing, sont toutefois évoquées dans plusieurs articles. De même, ce dossier n'aborde pas le champ des recherches sur la réception1 Notre démarche est socio-économique et considère la mesure d'audience en tant que réponse donnée, dans une certaine configuration politique et économique, à la question de la relation entre une offre et son public. Parmi les médias étudiés ici, la télévision occupe une place privilégiée. À cela plusieurs raisons : - La première tient au fait qu'en France, comme dans la plupart des grands pays européens, la télévision s'est profondément transformée dans sa finalité sociale, depuis ses origines placées sous l'égide du service public, et qu'en quelques années, avec l'avènement du modèle commercial, l'audience y est devenue l'instrument central de régulation. La télévision propose en quelque sorte à l'observateur des médias un accéléré très pédagogique sur les effets concrets, en matière d'offre, de la dépendance vis-à-vis de la ressource publicitaire et de la concurrence entre les diffuseurs qui en résulte. Depuis que les enquêtes régulières d'audience existent (1949 pour la radio, 1957 pour la presse), aucun autre média n'a connu une telle rupture quant à l'origine principale de ses ressources. - La deuxième raison est liée au phénomène de focalisation de l'opinion publique sur la télévision. Parce qu'elle apporte les images à domicile, celle-ci représente le média de masse par excellence, le média populaire, crédité de tous les pouvoirs, chargé de tous les méfaits. Songeons simplement aux passions déclenchées par le remplacement d'un présentateur de journal ou par une émission comme Loft Story..., et à ce fait tout de même surprenant que chacun connaît l'existence de l'audimat, tandis que la majorité ignore tout des enquêtes presse et radio ! Cette fascination-répulsion pour la télévision est partagée par les intellectuels, à la fois critiques vis-à-vis des produits de la culture de masse et sensibles à son extraordinaire capacité de séduction et de sensibilisation. D'où la disproportion entre les analyses consacrées à la télévision et celles menées sur la presse et surtout sur la radio (pourtant écoutée chaque jour par autant d'individus et presque autant de temps en moyenne). - Enfin, la coordonnatrice de ce dossier, responsable de recherche à l'Ina, conduit depuis une vingtaine d'années des études sur les principales évolutions en matière de télévision, tant du point de vue de la programmation et des programmes que de celui du comportement des téléspectateurs. Le parti a été adopté d'associer à part égale la réflexion des chercheurs de la communauté scientifique et des praticiens de l'audience. Ceux-ci viennent d'horizons différents, à la fois spécialistes de la mesure et utilisateurs des résultats: responsable de l'organisme chargé par l'ensemble de la profession de l'audit des enquêtes d'audience HERMÈS 37, 2003

37


Régine Chaniac

(CESP), de l'institut de mesure d'audience Médiamétrie; responsables d'études dans les médias (radio et télévision); dirigeants de la télévision et responsables d'antenne et de programmation, etc. Le dialogue entre chercheurs et professionnels s'imposait, le sujet choisi renvoyant à tout un secteur d'activité, à tout un écheveau de pratiques, plutôt qu'à une question académique. Le lecteur trouvera profit à circuler d'un point de vue à l'autre et verra que, dans la confrontation des propos, les effets de vérité ne manquent pas. Il est remarquable que les problématiques abordées ici sont communes aujourd'hui à la plupart des pays. Les spécificités nationales en matière de médias sont encore très marquées sous certains aspects (comme, pour la télévision, les fortes disparités des capacités d'investissement dans la production). Mais, dans le domaine de la mesure d'audience, la convergence est à l'œuvre depuis une quinzaine d'années, du fait de la banalisation de certaines techniques (audimétrie), de la concentration et de l'internationalisation des instituts et enfin, de la généralisation des logiques concurrentielles. C'est ainsi qu'AGB (Audits of Great Britain), déjà présent en Italie pour la mesure d'audience TV, s'est fortement implanté dans les pays de l'Est au moment de leur ouverture au marché (Hongrie, Pologne, etc.), que l'Américain Nielsen est très présent en Asie, ainsi que la multinationale Taylor Nelson Sofres (Vietnam, Corée du Sud). La société américaine Arbitrou développe actuellement la technologie du PPM {Portable people meter) pour mesurer l'audience de la radio et de la télévision et mène des tests dans plusieurs pays (France, Royaume-Uni, Amérique latine, etc.) en s'alliant avec les instituts nationaux. De même, pour installer ses panels d'internautes à travers le monde, Nielsen s'appuie sur des instituts comme Médiamétrie en France.

À chaque média sa mesure d'audience (première partie) Selon la nature du média, selon son langage et le mode de réception mis en jeu, la notion d'audience n'a pas le même sens et les indicateurs ne peuvent être les mêmes. Le point commun entre la mesure d'audience des différents médias est de se fonder sur le principe du sondage, c'est-à-dire sur le recours à la technique d'échantillonnage. Puisqu'on ne peut appréhender concrètement la population totale touchée par un média, on construit un échantillon le plus représentatif possible de cette population. De fait, la naissance de l'industrie des sondages et celle de la mesure d'audience sont simultanées2. Aux Etats-Unis, on situe généralement l'essor des sondages en 1936, lorsque Georges Gallup prévoit la réélection de Roosevelt à partir d'un échantillon de 4 000 personnes, tandis qu'un magazine à gros tirage 38

HERMÈS 37, 2003


Introduction

(le Literary Digest) avait annoncé à tort la victoire du concurrent Alfred Landon en consultant ses lecteurs et en recueillant deux millions de réponses. C'est la même année que les responsables du magazine Life décident de mener une enquête d'audience pour mieux évaluer le nombre de ses lecteurs - beaucoup plus important que le nombre d'acheteurs - et le valoriser auprès des annonceurs. L'idée qu'un chiffre obtenu par calcul sur un petit échantillon représentatif peut être plus juste, plus conforme à la réalité, qu'un dénombrement concret de grande ampleur (réponses à un journal, exemplaires d'un magazine vendus) était acquise. En France, les sondages sont introduits dès 1938 par Jean Stoetzel, fondateur de l'Ifop, mais il faut attendre l'après-guerre pour le démarrage des sondages d'audience, d'abord pour la radio, puis pour la presse et enfin, l'affichage et la télévision. À partir de ce socle commun, les instruments de mesure diffèrent d'un média à l'autre. L'article introductif d'Emmanuel Fraisse met bien l'accent sur l'ensemble des difficultés méthodologiques affrontées et sur les «sacrifices» acceptés pour parvenir à une «délimitation plausible des faits d'audience» propre à la nature de chaque média. Pour la presse quotidienne, l'audience est définie comme le fait d'avoir «lu, parcouru ou consulté» un titre la veille ou au cours des 7 derniers jours, ce qui permet de calculer la LDP (Lecture dernière période), la LNM (Lecture d'un numéro moyen). Les principales limites à la fiabilité et à la précision des résultats, remarque Jean-Marie Charon, tiennent à la multiplicité des titres qui alourdit la passation du questionnaire et au recueil d'information qui repose sur les déclarations et la mémoire des personnes interrogées. Pour la radio, média temporel qui impose le rythme de sa réception, l'interrogation introduit l'unité du demi-quart d'heure comme seuil significatif d'écoute pour chaque station pendant les dernières 24 heures. Comme pour la lecture, la notion d'écoute est très large, incluant toutes les conditions de réception (délibérée, attentive, en accompagnement d'une autre activité, en fond sonore, etc.). Marie-Dominique Chevreux insiste sur la richesse des indicateurs obtenus, notamment grâce à la complémentarité de deux enquêtes, mais aussi, sur le nouveau défi posé par l'extrême diversification des supports d'écoute. La réponse envisagée serait d'introduire une mesure passive par un audimètre portable sous forme de montre. Avec l'audimétrie actuellement en vigueur pour la télévision, l'audience du foyer est suivie automatiquement à la seconde près. Chaque individu doit ensuite déclarer son audience, définie comme «la présence dans la pièce où le téléviseur est allumé», en appuyant sur son bouton-poussoir. Contrairement à la radio qui s'intéresse aux résultats par tranche horaire, pertinents pour évaluer son offre, la télévision a toujours privilégié les résultats par émission, unité significative de la grille de programmes. Pourtant, dans l'univers atomisé du câble et du satellite, Jean Mauduit et Olivier Appé expliquent bien qu'il a fallu renoncer aux résultats ponctuels par émission et revenir à des moyennes semestrielles (en vigueur pour la radio ou la presse), afin de garantir la fiabilité statistique. HERMÈS 37, 2003

39


Régine Chaniac

Les techniques et les indicateurs utilisés, la population prise en compte, reflètent aussi l'état de la concurrence et peuvent faire l'objet de remises en cause assez conflictuelles, lorsque l'équilibre qui prévalait entre l'ensemble des acteurs concernés est rompu. Même les médias les plus anciens ne sont pas à l'abri de telles crises. Ainsi, la radio traverse depuis quelques années une période de fortes turbulences quant à la mesure de son audience. La montée en charge des radios musicales et thématiques, au détriment des radios généralistes, est à l'origine d'une véritable guerre, chaque station se battant pour imposer la mesure qui lui est le plus favorable. Alors que depuis l'origine, l'audience radio ne prenait en compte que l'écoute des individus de 15 ans et plus, les radios musicales, NRJ et Skyrock en tête, ont lutté pied à pied pour que soient intégrés les 11-14 ans, qui constituent pour elles un vivier d'écoute. Un compromis laborieux a été adopté en 2002 avec la prise en compte des 13-15 ans. L'autre bataille concerne le choix des indicateurs pour le classement des stations. L'audience cumulée, indicateur traditionnel de la radio exprimant le nombre d'auditeurs touchés quelle que soit la durée de leur écoute, est revendiquée par la jeune radio NRJ qui a conquis la première place depuis fin 2002. La généraliste RTL, pendant longtemps leader selon n'importe quel indicateur, tente maintenant d'imposer le classement selon la part d'audience où elle continue à tenir tête à ses rivales, retenant ses auditeurs beaucoup plus longtemps. Dans le cas de la presse, des divergences méthodologiques entre responsables des quotidiens et des magazines ont abouti, en 1993, à l'éclatement en deux enquêtes distinctes du système de mesure d'audience qui perdurait depuis plusieurs décennies. Pour la télévision, par contre, l'équilibre prévaut depuis une quinzaine d'années, suite à la crise survenue à la fin des années 1980. La création de deux chaînes commerciales et la privatisation de TFl ont en effet engendré, à partir de 1987, une compétition sans précédent entre les diffuseurs devenus dépendants de la manne publicitaire. Les publicitaires qui, depuis l'ORTF, s'étaient toujours vus refuser l'accès au système de mesure d'audience mis en place par les diffuseurs, ont pu imposer le bouton-poussoir et le suivi par cibles. La part d'audience, qui exprime l'état de la concurrence à chaque instant, fait son apparition et, calculée notamment sur les cibles les plus prisées par les annonceurs, devient rapidement l'indicateur hégémonique dans la communication des chaînes, s'imposant même douze ans plus tard dans l'univers émietté des chaînes câble et satellite. Dans tous les cas, on voit bien que l'audience est une réalité construite, obtenue après toute une série de conventions concernant sa définition, sa mesure, ses dimensions. Lorsque le contexte évolue, ces conventions peuvent être remises en cause par telle ou telle partie. Le consensus n'est jamais parfait, les polémiques couvent, mais chacun a besoin d'une référence unique pour situer les différents supports par rapport à la concurrence et fixer la valeur des transactions sur le marché publicitaire. 40

HERMÈS 37, 2003


Introduction

Le progrès technique permet, avec l'adoption d'outils de plus en plus sophistiqués, un recueil des données d'audience «en temps réel» et un traitement plus rapide des informations. Il ne supprime pas pour autant les difficultés méthodologiques propres à tout sondage (que mesure-t-on, quels sont les risques de biais liés aux contraintes imposées aux panélistes?, etc.). Le risque est que la quasi-instantanéité et la précision des résultats obtenus fassent oublier la complexité inhérente à la mesure d'un comportement humain tel que l'exposition à un média.

Programmer en régime concurrentiel (deuxième partie) Nous avons déjà souligné que la télévision a connu depuis son origine des mutations profondes qui ont affecté son mode de relation avec le public et, du même coup, son offre de programmes. Très schématiquement, on peut distinguer trois modèles qui sont apparus successivement en Europe. Le premier est celui de la télévision de service public en situation de monopole, financée par la redevance, à laquelle vient s'ajouter ou non une part de publicité, et dont la finalité sociale peut se résumer par la célèbre formule «Informer, éduquer, distraire». La programmation d'un nombre limité de chaînes respecte un équilibre entre les genres relevant d'une ambition culturelle et pédagogique et ceux ressortant du divertissement. L'équilibre peut varier d'un pays à l'autre, d'une chaîne à l'autre, mais il s'agit toujours d'une offre volontariste qui concrétise les conceptions des responsables et de certains groupes professionnels sur ce que la télévision doit proposer à son public. La préoccupation de mesurer l'audience existe déjà, mais d'autres critères de décision en amont et d'évaluation en aval prédominent, allant des rapports de forces entre catégories professionnelles (réalisateurs, journalistes, ingénieurs et techniciens, etc.) aux réactions de la critique. Les données d'audience sont un élément parmi d'autres pour justifier une politique de programme, des investissements et pour asseoir la légitimité d'une chaîne et finalement, de la télévision en général. Le deuxième modèle, aujourd'hui dominant, est celui de la télévision commerciale. Ce n'est pas l'introduction de la publicité qui entraîne mécaniquement son émergence, ni même l'existence d'une chaîne privée. Ainsi, le réseau ITV, créé en 1955 au Royaume-Uni, entièrement financé par la publicité et bénéficiant du monopole auprès des annonceurs, a offert pendant plusieurs décennies aux téléspectateurs britanniques une programmation où dominent les préoccupations de service public, assez proche de celle de la BBC, entièrement financée par la redevance. La rupture se produit avec l'arrivée de chaînes commerciales HERMÈS 37, 2003

41


Régine Chaniac

supplémentaires, qui crée une situation nouvelle de concurrence sur le marché publicitaire, l'offre globale d'écrans excédant la demande des annonceurs. En Europe, l'Italie bascule la première avec la constitution du pôle Berlusconi au début des années 1980. En France, nous avons déjà situé le pas décisif en 1987. L'évolution est plus progressive en Allemagne et en Grande-Bretagne. Dans tous les cas, les offres de programmes se transforment plus fortement que pendant les trois décennies précédentes. L'anticipation des résultats d'audience, qui régit la tarification et la vente des espaces, devient un élément essentiel dans les décisions de programme. Même les grandes chaînes publiques qui ne dépendent pas de la publicité, telle BBCl, sont contraintes de se situer par rapport à la concurrence pour éviter la marginalisation et justifier leur financement public. Le troisième modèle, celui de la télévision payante, n'est encore qu'à l'état d'ébauche et, souvent désigné sous le terme de complément, coexiste avec le précédent, qualifié dès lors de généraliste. Ses prémices sont déjà anciennes dans certains pays, permises par le développement du câble et du satellite (HBO aux Etats-Unis, à partir de 1975) ou, originalité française, par l'attribution en 1984 d'un canal hertzien à une chaîne payante en situation de monopole (Canal Plus). À partir du milieu des années 1990, aux Etats-Unis puis en Europe, l'émergence de la diffusion numérique entraîne un saut qualitatif important en multipliant le nombre de chaînes pour un coût de diffusion dérisoire. Le péage, dépense régulière supportée par l'abonné d'un bouquet de chaînes, permet de financer des offres assez spécialisées, qui n'intéressent souvent qu'un public segmenté, minoritaire. Une nouvelle relation apparaît entre l'offreur et le « client » qui doit être conquis et satisfait par une offre thématique, pointue, distinctive. La mesure d'audience n'est plus centrale dans ce nouveau mode d'offre et de consommation qui divise les auditoires au lieu de les réunir. Les interviews et articles proposés dans cette partie s'intéressent plus précisément aux conséquences présentes de la domination du modèle commercial sur la télévision généraliste. Quatre foyers sur cinq ne disposent encore en France que des chaînes hertziennes et, même dans les foyers abonnés à une offre élargie, ces chaînes accaparent la majeure partie du temps d'écoute. Pour cette télévision grand public, quels sont les effets de la concurrence sur les offres de programmes et quel est l'impact des résultats d'audience sur les choix éditoriaux ? Deux points de vue différents se dégagent. Le premier, partagé - avec des nuances - par les programmateurs de télévision, publique (Jean-Pierre Cottet) ou privée (Etienne Mougeotte), et par un chercheur (Eric Macé), admet l'importance de l'audience comme instrument d'évaluation mais en conteste aussitôt l'aspect opérationnel dans les décisions de programme. Etienne Mougeotte exprime ce point de vue d'une façon limpide: «La mesure d'audience nous montre très bien ce qui s'est passé, elle ne nous dit pas ce qu'il faudrait faire 42

HERMÈS 37, 2003


Introduction

pour que cela marche. » L'audience est toujours rétrospective et relative à une situation de concurrence. La sophistication et la surabondance des chiffres ne lèvent pas le mystère de ce qui a motivé le choix du public. Jean-Pierre Cottet ajoute qu'il n'y a pas de recettes pour fabriquer des «pièges à audience» ou alors, «ces émissions sont comme les malheureux clones de brebis, elles ne vivent pas longtemps». Pour tous deux, l'intuition, la conviction, l'expérience, permettent seules de construire une grille, de concevoir un programme. Ensuite, «l'audience est une récompense», elle vient de surcroît (Jean-Pierre Cottet). En tout cas, selon ce dernier, la télévision publique ne doit pas se cantonner « à faire ce que le privé ne souhaite pas faire», elle doit affronter la concurrence sur le terrain de la distraction, «pour le plus grand bénéfice des téléspectateurs». C'est particulièrement France 2 qui doit jouer un rôle moteur dans le domaine de la création télévisuelle: fiction, spectacle, etc. Eric Macé pense aussi que l'audience «n'est pas le facteur central et déterminant de la programmation ». Pour aller à la rencontre du public, pour anticiper ce qui va l'intéresser, l'émouvoir, ce qui va être «légitime et recevable pour la plupart à un moment donné», le responsable de programmes se fonde sur des «théories du social et du rôle de médiation de la télévision». D'où le «conformisme instable de la télévision» qui, comme toute industrie culturelle, est prise dans des tensions contradictoires, à la fois contrainte d'innover et de reproduire ce qui a marché. On résume souvent le modèle commercial au triomphe d'une télévision de la demande sur la télévision de l'offre, qui caractérisait le service public en situation de monopole. Selon ce premier point de vue, la situation n'est pas si tranchée. Bien sûr, Etienne Mougeotte affirme qu'il « essaie de comprendre ce que sont les demandes du public » et de lui offrir « des programmes qui correspondent à ces demandes». Mais c'est pour insister aussitôt sur la difficulté à saisir cette demande, malgré tous les instruments d'observation dont il dispose. La télévision est toujours en partie une télévision de l'offre, il faut savoir prendre des décisions, courir des risques, faire des propositions nouvelles. L'audience est une sanction indispensable, mais le programme est toujours premier. La force des grandes chaînes généralistes est de créer l'événement, de susciter l'intérêt, d'ouvrir la curiosité, de sensibiliser de larges auditoires à des questions auxquelles ils ne s'intéressaient pas préalablement. Le second point de vue est celui de chercheurs qui insistent sur les effets pervers de la «dictature de l'audimat». Pour Patrick Champagne, l'audimétrie s'apparente à «une sorte de referendum permanent sur les programmes», un vote inégalitaire où les gros consommateurs comptent plus que les petits, soumettant la télévision à la «loi de la majorité». La logique économique appliquée à la télévision, conséquence du désengagement de l'Etat, renvoie à une «vision politique implicite», à une «représentation politique du public», alors que le média, comme entreprise de production de biens culturels, aurait pu faire l'objet «d'usages sociaux beaucoup plus diversifiés». De leur côté, HERMÈS 37, 2003

43


Régine Chaniac

Valérie Patrin-Leclère et Yves Jeanneret s'attachent à démonter la fabrication d'un produit emblématique des excès du modèle commercial. Bien sûr, Loft Story n'est pas la première émission à avoir été conçue pour faire de l'audience. Mais avec ce programme, l'ambiguïté qui associe l'obtention d'un bon résultat d'audience à la satisfaction du public est levée : Loft Story est l'aboutissement d'un travail sur «l'exposition au média» où il ne s'agit plus tant de susciter l'adhésion du public que de créer un scandale, une «querelle», dans le but d'obliger chacun à se faire une idée, et donc à regarder. La critique a malgré elle contribué à ce processus «en conférant du sens à une entreprise économique et en lui donnant la dimension d'un débat public». Dans ce cas, c'est dans un autre sens que la télévision en régime commercial n'est pas une télévision de la demande. La logique de maximisation de l'audience ne permet plus de prendre en compte des attentes diversifiées, complémentaires. La concurrence frontale entre les chaînes uniformise les offres, chacune recherchant le programme le plus fédérateur, celui qui rassemblera le plus grand auditoire possible. La distinction traditionnelle entre les genres, qui renvoyait aux différentes missions du service public, s'efface au profit de programmes qui mêlent la fiction, le jeu, le divertissement et l'information. Les grilles se régularisent pour fidéliser les auditoires d'une journée à l'autre, d'une semaine à l'autre, seule façon de fournir aux annonceurs une audience monnayable, c'est-à-dire prévisible, garantie3. Yves Jaigu parlait de programmation pavlovienne, «qui prend le public au lasso »4, pour qualifier cette relation du média avec le public basée sur la répétitivité, l'habitude et le conditionnement.

L'audience, outil de connaissance du public (troisième partie) Une fois établi que le fait d'audience prend en compte «l'exposition au média» et ne nous dit rien sur les conditions de réception, une minute d'écoute attentive valant comme une minute distraite ; une fois admis, à l'issue de la partie précédente, que l'audience ne mesure pas tant les goûts des téléspectateurs ou leur satisfaction que, selon la formule éloquente de Dominique Wolton, leur «réaction à l'offre»5, la question paraît provocante: les données innombrables engrangées par le Médiamat peuvent-elles nous aider à mieux connaître le public de la télévision et sa relation aux programmes ? Y a-t-il d'autres formes de représentation du téléspectateur moins réductrices ? Michel Souchon livre une démonstration virtuose de «l'utilisation intelligente et féconde» que l'on peut faire de l'instrument, à condition d'opérer des «détours» par 44

HERMÈS 37, 2003


Introduction

rapport à sa finalité première, de jouer de la diversité des indicateurs possibles et de suivre le parcours du téléspectateur tout au long de son écoute. Ainsi, une sociologie du public ne peut faire fi de ce que l'audimétrie individuelle nous apprend sur la durée d'écoute, ses évolutions selon de multiples facteurs, ses disparités selon les individus, son impact sur la nature des programmes consommés. Cela n'exclut en rien l'ensemble des autres outils de connaissance et Michel Souchon rappelle judicieusement que « le public de la télévision est coextensif à la société française » et que toutes les enquêtes sur les Français sont précieuses pour mieux comprendre les téléspectateurs. Dans la même perspective, Sophie Benoit vante la performance des logiciels qui permettent de «triturer» l'ensemble des données issues du panel Médiamat. Elle relativise toutefois l'apport de l'outil face à toute la panoplie d'études utilisées au sein des chaînes pour anticiper et tester les réactions du public à certains programmes, pour saisir les attentes de telle ou telle catégorie, pour suivre les changements d'opinions, de modes de vie, bref, tout ce qui peut contribuer à forger ces «théories» indispensables aux programmateurs, évoquées par Eric Macé. Dans la mesure où il s'interroge sur la possibilité d'un mode de représentation des téléspectateurs en tant que citoyens et non plus seulement consommateurs, Dominique Boullier pense au contraire que la mesure d'audience n'a d'intérêt que par rapport à sa finalité première, les échanges sur le marché publicitaire. Grâce à un système de consultation à plusieurs étages, le CSA pourrait se prononcer sur la qualité des programmes et des programmations, au nom d'un jugement des citoyens. Restent à élaborer les indicateurs de cette mesure de la «qualité civique», pour éviter les écueils inhérents à la réduction d'opinions complexes et hétérogènes en indice de satisfaction ou note de qualité. Marc Tessier ne néglige aucune des médiations pouvant renforcer les liens entre la télévision publique et les téléspectateurs. Le contrat passé avec le public, en échange du paiement de la redevance, inclut l'atteinte de certains objectifs d'audience globaux pour les trois chaînes de France Télévisions, ou affinés par genre. L'ensemble des tests qualitatifs d'appréciation des programmes, complété par un baromètre d'opinion, constituent un mode de consultation permanent. Enfin, un système de relation avec les téléspectateurs a été mis en place, à travers des médiateurs et un service de traitement de l'ensemble du courrier reçu.

Nouveaux médias et Internet: de la notion de public à celle d'usager (quatrième partie) La question de la mesure d'audience d'Internet n'est pas seulement méthodologique : définition d'indicateurs adéquats, constructions d'échantillons représentatifs, méthodes de HERMÈS 37, 2003

45


Régine Chaniac

recueil des données, etc. Elle met en évidence qu'Internet n'est pas un média de masse (broadcast), au même titre que la presse, la radio et la télévision, caractérisé par la diffusion d'une offre organisée de messages, dans un langage propre, à destination de récepteurs anonymes. Internet est un média hybride qui associe différentes logiques de communication, depuis le dialogue interpersonnel de la messagerie (proche du téléphone ou du courrier) jusqu'au dialogue homme-machine permis par l'interactivité et mis en jeu dans la recherche d'informations et les transactions les plus diverses. Internet est un média hétérogène qui véhicule tous les langages et peut en cela relayer l'ensemble des autres médias (presse, radio, TV), de même que tout moyen d'expression (photo, musique, etc.). Internet propose une infinité de services disparates qui, pour l'essentiel, ne rentrent pas en concurrence, ne se situent pas dans le même champ et n'ont pas la même finalité sociale. Internet, étant un média point à point, n'est pas structuré pour rejoindre de larges auditoires, mais peut en échange disposer d'informations sur son public, à partir de données enregistrées automatiquement, concernant le parcours des internautes, leur consommation et, le cas échéant, par un recours à un questionnement complémentaire. Jean-Pierre Jézéquel tire les conséquences économiques de ces caractéristiques du Web. La mesure d'audience telle que nous l'avons définie, c'est-à-dire un système unique de fourniture de données régulières permettant de hiérarchiser les différents supports d'un même média et de fixer la valeur des espaces publicitaires n'est sans doute nécessaire que pour les gros sites (portails, moteurs de recherche, etc.) qui tentent d'attirer le plus grand nombre possible d'internautes pour maximiser leurs recettes publicitaires. Le principe de gratuité, qui a été à l'origine du Net, a conduit dans un second temps, lorsque de nouveaux entrants se sont préoccupés d'assurer la rémunération des services offerts, à un alignement sur le modèle économique de la fausse gratuité des médias financés par la publicité. Pour ces gros opérateurs, le panel user centric de Nielsen NetRatings et Médiamétrie fournit un palmarès en nombre de visiteurs. Mais ce modèle des médias financés par la publicité ne peut en aucun cas s'imposer sur l'ensemble du Net. Quantité de sites n'ont pas vocation à rejoindre de larges audiences et trouvent leur justification dans une démarche de communication publique (sites institutionnels, sites d'entreprise), ou dans une transaction rémunérée (fourniture de services, commerce électronique, etc.). Comme le souligne Josiane Jouët, la possibilité pour tous ces sites de personnaliser la relation avec l'usager et de mémoriser son profil de consommation ouvre la voie à un champ immense de techniques de marketing sophistiquées impossibles avec les autres médias. La notion de cible, fondamentale pour les médias traditionnels, qui tente de caractériser l'auditoire touché en catégories de consommateurs auxquelles un annonceur s'intéresse, n'est plus centrale avec l'Internet, qui peut rétablir la 46

HERMÈS 37, 2003


Introduction

corrélation directe entre l'offre proposée par un site et le comportement d'achat de l'internaute attesté par des transactions. Les instruments de mesure de fréquentation et de connaissance des internautes de type site centric décrits par Josiane Jouët ne s'apparentent plus à une mesure d'audience destinée à attirer les annonceurs, mais à un ensemble d'outils construits pour élaborer l'offre la plus appropriée. L'évaluation quantitative d'auditoires anonymes pose l'ensemble des questions propres à l'utilisation des sondages. Avec l'Internet, c'est un champ de problèmes d'une tout autre nature qu'aperçoit Hubert Bouchet. Le Web, grâce au couplage de l'informatique et des télécommunications, peut stocker quantité d'informations sur chaque usager, garder trace de chaque transaction. L'individu, suivi, observé, fiché à des fins commerciales, peut être aussi surveillé pour tout autre raison, au sein de son entreprise ou au-delà, et cela à son insu. Le réseau soulève avec une acuité nouvelle les questions relatives à la protection de la vie privée et des libertés individuelles ou publiques. Le propos d'Alain Le Diberder a une valeur conclusive. Il prend appui sur l'expérience acquise par les différents médias pour alerter les chaînes thématiques sur le danger d'une trop grande dépendance à l'égard des données d'audience. Les déboires récents d'un média aussi jeune qu'Internet doivent notamment leur servir de leçon. Dans un secteur où le poids de la publicité est faible, la satisfaction et la fidélité des abonnés sont des critères tout aussi pertinents. En cela, Alain Le Diberder resitue la mesure d'audience dans le contexte plus général des processus de prise de décision professionnels. La qualité de la mesure d'audience ne suffit pas. Il faut encore interpréter les résultats en les confrontant à bien d'autres paramètres, pour constituer un véritable «corps de connaissance».

NOTES 1. Dans ce domaine, nous renvoyons le lecteur au dossier fondateur coordonné par Daniel DAYAN, «À la recherche du public. Réception, télévision, médias», Hermès, n° 11-12, 1993. 2.

Cf. préface d'Emmanuel FRAISSE, in Mesurer l'audience des médias. Du recueil des données au média-planning, Paris, Dunod, 2002.

3. Pour une analyse plus détaillée de l'impact de la pression publicitaire sur la structure des grilles, le format et le contenu des programmes, se référer à l'article «Programmer en régime concurrentiel» (Régine CHANIAC) in Dossiers de l'audiovisuel, n° 99, 2001, Ina-La Documentation française. 4. Entretien avec Yves Jaigu, alors directeur des programmes de FR3, réalisé le 11 mars 1988 (Régine CHANIAC et Jean-Pierre JÉZÉQUEL).

5.

Cf. notamment dans «Pour le public», Hermès, n° 11-12, 1993, p. 11-13.

HERMÈS 37, 2003

47


Régine Chaniac

REFERENCES DE SITES I N T E R N E T Sites des principaux intervenants français de la mesure d'audience : www.mediametrie.fr www.cesp.org www.ipsos.fr www.aepm.fr www.spqr.fr

48

HERMÈS 37, 2003


I. À CHAQUE MÉDIA SA MESURE D'AUDIENCE

Emmanuel Fraisse Jean-Marie Charon Marie-Dominique Chevreux Régine Chaniac Olivier Appé Jean Mauduit


Emmanuel Fraisse Centre d'étude des supports de publicité

(CESP)

QUE MESURE-TON QUAND ON MESURE L'AUDIENCE ? Interrogés sur ce qu'ils entendaient par «intelligence», Binet et Simon, les pères de la première échelle de QI, avaient répondu que c'était précisément ce que leur test mesurait. Dans un tout autre domaine, celui de l'étude des médias, une semblable définition tautologique s'applique-t-elle au concept de base désigné comme «l'audience» : dans quelle mesure faut-il considérer celle-ci comme le résultat des mesures d'audience? Dans l'introduction de son livre La Politique des grands nombres, histoire de la raison statistique, Alain Desrosières revient sur ce thème classique de la problématique de la mesure dans les sciences humaines : « Il est difficile de penser en même temps que les objets mesurés existent bien et que cela n'est qu'une convention.» (...) « Les outils statistiques permettent de découvrir ou de créer des êtres sur lesquels prendre appui pour décrire le monde et agir sur lui. De ces objets, on peut dire à la fois qu'ils sont réels et qu'ils ont été construits, dès lors qu'ils sont repris dans d'autres assemblages et circulent tels quels, coupés de leur genèse, ce qui est après tout le lot de beaucoup de produits.» (...) « Les attitudes possibles par rapport aux constructions scientifiques (notamment statistiques) sont multiples. Elles sont souvent différentes en théorie et en pratique. Cela suggère que, au lieu de camper sur l'une pour dénoncer les autres, il est plus fécond d'étudier la façon dont chacune d'elles est inscrite de façon cohérente dans une configuration générale, dans un réseau de compte rendus. La question de la réalité est liée à la solidité de ce réseau, à sa capacité à résister aux critiques. » La mesure d'audience des médias constitue un genre spécifique parmi les nombreuses applications auxquelles les sondages ont donné lieu. Autant qu'à la nature de l'objet qu'elle prétend appréhender, elle doit son originalité à son statut et à ses implications économiques. HERMÈS 37, 2003

51


Emmanuel Fraisse

La mesure d'audience s'est (presque exclusivement) constituée en réponse à une préoccupation unique, d'ordre commercial : la régulation du marché publicitaire (ou, plus précisément: du marché de l'espace publicitaire dans les médias). Il s'agit, au demeurant, d'un fait bien connu (pour la télévision notamment, à propos de laquelle on a dénoncé la «dictature de l'audimat») ; il n'est sans doute pas pour autant perçu au niveau de généralité qui est le sien, en raison des nombreuses analyses et commentaires dont les données d'audience font l'objet, indépendamment de la finalité de leur production. Or, cette finalité n'est pas anodine : entre les deux dimensions de la mesure, théorique et pratique, elle donne priorité à la seconde. Les revenus issus de l'achat d'espace publicitaire constituent, pour la quasi-totalité des supports (titres de presse, chaînes de télévision, stations de radio, réseaux d'affichage), une part de leurs ressources globales suffisante pour conditionner très directement leur viabilité économique. Les indices d'audience, qui constituent la clé de répartition de cette manne, sont en conséquence investis d'un pouvoir sans équivalent dans tout autre domaine d'application des sondages. Le fait est d'autant plus sensible que, sur le plan méthodologique, la mesure d'audience s'avère tout, sauf simple. Sans prétendre, dans le cadre de cet article, rendre compte par le détail de sa complexité, on va s'efforcer d'en évoquer les dimensions essentielles. Dans son acception première, le concept d'audience est simple: il désigne «la fraction d'une population de référence exposée à un média» (ou, plus précisément, à un «support» - chaque média se déclinant en un certain nombre de supports) ; c'est, évidemment, la définition de «l'exposition» et la manière dont on la relève, qui posent problème. Les modalités selon lesquelles un individu est susceptible d'entrer en contact avec un média sont multiples: elles peuvent être caractérisées selon des dimensions qui opposent des comportements fortuits ou délibérés, furtifs ou s'inscrivant dans la durée, occasionnels ou habituels, mobilisant ou non l'attention du sujet... Face à la complexité du phénomène, on conçoit d'emblée qu'il a fallu consentir, sur l'autel de la méthodologie, un certain nombre de sacrifices, poser un certain nombre de conventions. D'autant plus que la restitution de ces comportements suppose le recours à la mémoire de l'interviewé (dans le schéma classique du recueil d'information par interview - nous verrons ultérieurement les implications du recueil d'information instantané propre à la technique audimétrique). La volonté, très pragmatique, de construire des instruments de mesure s'est traduite dans une démarche qui a consisté à établir (et à éprouver) une série de délimitations «plausibles» des faits d'audience, en accord avec l'objectif poursuivi (c'est-à-dire, au premier chef: la mesure de l'exposition aux messages publicitaires), en tenant compte des contraintes opératoires du recueil d'information. 52

HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

Les difficultés avec lesquelles il faut composer sont nombreuses Le recueil d'information

repose sur du

«déclaratif»

...et ce, dans la situation artificielle de l'interview. Certes, les faits qu'on s'efforce de restituer ne relèvent pas du registre de l'opinion, mais du comportement ; en vertu de quoi, il semble qu'ils échappent à la critique radicale, formulée par Pierre Bourdieu notamment, à l'encontre des sondages d'opinions : les faits d'audience sont (en théorie) des faits «objectifs» à propos desquels l'interviewé est (théoriquement) en mesure de s'exprimer. Ils n'en possèdent pas moins une signification sociale forte : on ne saurait exclure que leur aveu ne puisse être entaché de certains des biais qui ont été dénoncés à propos de la déclaration des opinions. Toutefois, le fait que les indices d'audience des supports «socialement valorisés» soient en général sensiblement inférieurs aux scores obtenus par les mêmes supports dans les enquêtes d'appréciation plaide en faveur de la validité de la mesure d'audience.

Le recueil d'information

suppose

le recours

à la mémoire de

l'interviewé

C'est là, sans doute, une des difficultés majeures avec laquelle la mesure d'audience doit composer. La mémoire de l'interviewé est sollicitée pour des faits de nature très différente, quant à son propre vécu : de l'exposition habituelle et régulière, à l'exposition accidentelle et rare, de l'exposition qui aura mobilisé toute son attention (et aura sans doute laissé une trace mémorielle forte), à l'exposition subreptice, dépourvue de réelle implication; elle est sollicitée sur des périodes de référence temporelles très variables: depuis «la veille» (mémoire à court terme, dont on espère une précision plus grande), jusqu'au mois ou à l'année (de manière à restituer les comportements en termes d'habitudes). Les questionnements adaptés au cas particulier de chaque média, sont la résultante des recherches qui ont été menées, depuis l'origine, pour quadriller ce vaste champ d'investigation. Elles ont permis de mettre en évidence un certain nombre de phénomènes, (tel, par exemple, le biais désigné comme «effet télescope», qui conduit les répondants à minimiser les durées sur les périodes de référence longues). Le croisement et l'analyse des données issues de différents questionnements (dernière occurrence d'exposition et habitudes) ont permis de préciser la signification des réponses, d'optimiser l'exploitation des données et de concevoir les modèles de probabilisation utilisés en média planning. HERMÈS 37, 2003

53


Emmanuel Fraisse

Une mesure appliquée

à des faits

statistiquement

«rares»

Cette affirmation peut sembler un peu surprenante, s'agissant de mesures portant sur des médias «de masse». Elle n'en est pas moins vraie, au sens statistique du terme, et au degré de détail auquel on entend saisir les phénomènes. A l'échelon de la population française (âgée de 15 ans et plus, et relevant des ménages «ordinaires» - la population de référence par excellence), un support qui totalise une audience de l'ordre du million d'individus - ce qui est loin d'être négligeable - réalise une «pénétration» inférieure à 3 % - un fait statistique relativement «rare». Le corollaire en est la dimension importante de la taille des échantillons - avec ses conséquences sur le budget des études. Une exigence

de précision

impossible

à totalement

satisfaire

En dépit des moyens importants mis en œuvre, l'exigence de précision que postule, idéalement, la mesure d'audience, est impossible à totalement satisfaire. Cette limitation n'est pas seulement (ni même, d'une certaine manière, principalement) d'ordre économique ; elle relève des limites de l'outil statistique (accrues des imperfections inhérentes à sa mise en œuvre), dans leur rapport avec l'utilisation qu'on entend faire des données produites - comme clés de répartition pour l'affectation d'une ressource économique : dans ce contexte, toute variation, même statistiquement non significative, est susceptible d'avoir des conséquences dans l'exploitation des données. Reprenons l'exemple cité au paragraphe précédent d'un support qui réalise une audience de 3 % : relevé, par exemple, sur un échantillon de dix mille individus (dix fois la taille habituelle de l'échantillon des sondages d'opinions publiés), le «sous-échantillon utile» (qui représente l'audience du support) sera de l'ordre de trois cents individus: l'incertitude statistique relative qui lui correspond est loin d'être négligeable (intervalle de confiance au seuil de 5 % , compris entre 2,65% et 3,35%, soit plus de 10% d'erreur relative - sous l'hypothèse d'un recueil d'information «parfait»). Un recueil d'information

lourd

Le nombre des supports à étudier, la nécessité de circonscrire le phénomène selon au moins ses principales dimensions, débouchent sur des protocoles lourds, qui demandent un niveau de participation élevé de la part des répondants. Les impératifs liés à l'objectif poursuivi rentrent souvent en conflit avec la nécessité de respecter une ergonomie satisfaisante du protocole expérimental : la tentation qui consiste à 54

HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

ne pas prendre suffisamment en considération ce qui est exigé du répondant constitue une dérive fatale pour la qualité de l'information relevée. Un effort sensible a été accompli ces dernières années pour mieux intégrer cette dimension du problème.

Une mesure très sensible au protocole

expérimental

L'expérience a conduit à reconnaître l'extrême sensibilité des indices aux appareils de mesure. Cette considération, qui vaut, en général, pour l'ensemble des études par sondage, est ressentie avec une acuité toute particulière dans le cas de la mesure d'audience, compte tenu de ses implications, et du fait qu'on cherche à disposer, pour chaque média, d'une étude unique, puisqu'elle a vocation à servir d'étalon de référence. En conséquence, un soin maniaque est apporté en permanence à suivre et à définir chaque élément du protocole expérimental. Dans beaucoup de pays (c'est le cas en France avec le CESP), on a mis en place une instance indépendante pour assurer l'audit permanent des outils de référence. Les données d'audience trouvant, quant à leur exploitation, l'essentiel de leur intérêt dans leur valeur relative, et en termes d'évolution chronologique, les modifications au protocole sont pratiquées le moins souvent possible - les ruptures n'intervenant qu'à la condition d'apparaître comme un progrès réel pour la validité de la mesure.

Le CESP Le Centre d'étude des supports de publicitéestl'association interprofessionnelle qui regroupe l'ensemble des acteurs du marché publicitaire concernés par l'étude de l'audience des médias. Le CESP compte plus de 300 adhérents : annonceurs, agences conseil en communication, agences médias, supports et régies publicitaires. L'Audit de la mesure d'audience La mission première du CESP est l'audit des études d'audience dont les résultats déterminent et régulent le marché de l'espace publicitaire. L'audit du CESP porte tant sur la réalisation de l'étude (contrôles sur le terrain) que sur l'ensemble des aspects méthodologiques, en amont et en aval (depuis la conception de l'étude jusqu'à la formalisation des résultats). La recherche, l'expertise, la transmission du savoir Le CESP est un carrefour de discussion et un lieu de débat méthodologique pour tout ce qui touche à la connaissance et à la mesure de l'audience des médias. Il exerce un rôle de veille HERMÈS 37, 2003

55


Emmanuel Fraisse

technologique et participe activement à plusieurs instances internationales. Il est régulièrement sollicité par ses membres pour mener des recherches et des tests. Le CESP joue un rôle important dans la diffusion des connaissances sur les problématiques d'audience, à travers des manifestations variées. Les mesures d'audience «de référence» auditées par le CESP Presse: - l'étude AΕΡΜ, sur l'audience de la presse magazine; - l'étude EUROPQN/SPQR/SPHR sur l'audience de la presse quotidienne (nationale, régionale) et hebdomadaire régionale; - l'étude «la France des Cadres Actifs» (à l'origine sur la presse, et dont le champ d'intervention s'est élargi aux médias audiovisuels). Audiovisuel: - le panel audimétrique Médiamat sur l'audience de la télévision; - le panel MédiaCabSat sur l'audience des chaînes de télévision thématiques; - l'étude « 73 000 + » et le panel Radio sur l'audience de la radio et du cinéma. Affichage: - l'étude Affimétrie sur l'audience de l'affichage.

Le bref catalogue qu'on vient d'esquisser du contexte et des difficultés auxquelles se trouve confrontée la mesure d'audience des médias s'incarne selon des modalités nettement différenciées pour chacun d'entre eux, en raison de sa spécificité propre. En particulier, nous nous sommes référés jusqu'ici au modèle classique du recueil d'information par interview, sans aborder celui, plus récent - mais qui a cours depuis plusieurs années pour la télévision, et semble se mettre en place pour la radio - du recueil instantané selon la technologie électronique de l'audimétrie. Il s'agit là, indéniablement, à l'échelle de la mesure d'audience, d'une vraie révolution: tout ce qui a été dit du recours à la mémoire ne s'y applique plus - le panéliste rend compte de ses audiences «en temps réel»; pour le reste, et au-delà des différences patentes que présente ce mode de recueil d'information par rapport au modèle classique, plusieurs des remarques qui ont été faites celles qui ont trait à l'utilisation de la technique des sondages - restent pertinentes; l'application de la technique audimétrique recèle, par ailleurs, un certain nombre de problèmes propres, que son caractère de modernité ne doit pas conduire à occulter. Une présentation rapide de quelques-unes des études de référence, appliquées aux différents médias, va nous permettre d'appréhender, plus concrètement, leur portée et leurs limites. 56

HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

La Presse Il existe, en France, deux études «de référence» sur l'audience de la presse: l'une sur l'audience de la presse magazine, l'autre sur l'audience de la presse quotidienne. Cela n'a pas toujours été le cas : à l'origine, les deux familles de supports étaient étudiées dans la même étude (c'est le cas dans plusieurs pays étrangers) ; la scission est intervenue parce que les quotidiens estimaient ne pas être traités sur un pied d'égalité avec les magazines dans le cadre de cette enquête. La partition en deux études indépendantes apparaît pertinente du point de vue du mode de recueil : la presse quotidienne (nationale et régionale), qui compte un petit nombre de supports (les quelques titres nationaux, et, en un lieu géographique déterminé, un, deux ou trois titres régionaux) se prête à l'interview téléphonique (qui présente un certain nombre d'avantages: notamment, celui de permettre d'optimiser la dispersion géographique des interviews) ; par comparaison, la presse magazine, dont l'étude porte sur plus de 150 titres, exige un recueil d'information en situation de face-à-face. L'existence de deux études indépendantes n'en est pas moins ressentie comme dommageable en ce qu'elle interdit l'exploitation conjointe des données (la prise en compte des duplications entre quotidiens et magazines) en média planning.

l'étude d'audience

de la presse

quotidienne

Elle porte sur 11 titres nationaux, 71 régionaux et 174 titres de presse hebdomadaire régionale (l'interviewé n'est interrogé que sur les titres susceptibles de le concerner, eu égard à sa situation géographique). Le recueil d'information est conduit par téléphone (système «Cati 1 »), auprès de la population des «15 ans et plus, appartenant à des ménages ordinaires». Les interviews sont réparties sur l'ensemble de l'année, sur un échantillon total de 21 700 répondants, selon un plan d'échantillonnage à deux degrés. La définition de l'audience obéit à la formulation: «avoir lu, parcouru, ou consulté, chez soi, ou ailleurs ». La durée moyenne de l'interview s'établit à un peu moins de 15 minutes. Le relevé des audiences obéit au schéma suivant : - question «filtre» : seuls les titres cités comme ayant été lus au moins une fois au cours des 12 derniers mois sont pris en compte dans les questions ultérieures du questionnaire. On ne peut évidemment pas tabler sur une grande exactitude des réponses fournies en référence à une période temporelle aussi longue: l'objet de la question «filtre» est de HERMÈS 37, 2003

51


Emmanuel Fraisse

repérer, dans la liste des titres, ceux qui sont susceptibles de relever de définitions plus resserrées de l'audience. L'audience «annuelle» est, en conséquence, une notion limite, d'intérêt relatif (même si ses chiffres sont parfois utilisés pour leur promotion par les titres, qui aiment bien les gros chiffres) ; - habitudes de lecture, selon l'échelle : tous les jours ; 3 à 5 fois par semaine ; 1 à 2 fois par semaine ; 2 à 3 fois par mois ; moins souvent ; - date de dernière lecture (DDL), selon l'échelle: hier; avant-hier; il y a 3 ou 4 jours; il y a moins de 8 jours ; il y a 8 à 15 jours ; il y a plus de 15 jours. Les réponses à la première modalité («hier»), constituent la «Lecture Dernière Période» (LDP). Le croisement des réponses en termes d'habitudes et de DDL permet d'affecter des probabilités aux modalités d'habitudes (à titre d'exemple, la probabilité correspondant à la réponse «tous les jours» est de l'ordre de 0,8).

L'étude d'audience

de la presse

magazine

Elle porte sur plus de 150 titres (hebdomadaires et mensuels pour la majorité d'entre eux, mais aussi bimensuels, bimestriels). Elle est réalisée sous l'égide d'un GIE regroupant les principaux éditeurs (l'ΑΕΡΜ), qui en confie, depuis plusieurs années, la réalisation partagée à trois instituts (ISL, Ipsos, Sofrès). Elle présente de nombreuses caractéristiques communes avec la précédente : population de référence, définition de l'audience, plan de sondage. L'échantillon total est de 20 100 individus ; il se décompose en un échantillon principal (16200 individus), représentatif de la population de l'étude, et un sur-échantillon de 3 900 individus appartenant à des foyers dont le chef de famille est cadre ou profession intermédiaire (strates de la population qui réalisent des audiences supérieures à la moyenne ; bien entendu, un redressement rétablit, dans le calcul des résultats, le poids réel de ces catégories dans la population). Les interviews sont réparties tout au long de l'année en six vagues de deux mois. La nature et l'ampleur du questionnement exigent la situation de face-à-face au domicile de la personne interrogée; le recrutement selon cette modalité pose un certain nombre de problèmes (par rapport au recueil téléphonique) : difficultés d'accès à certains logements (les taux d'accessibilité et d'acceptation variant assez sensiblement selon les catégories socio-démographiques), nécessité de conduire les interviews dans la journée, et non en soirée (avec le risque de sous-échantillonner les individus les plus mobiles). Une autre difficulté propre à l'enquête tient à la lourdeur du questionnaire, qui peut entraîner une certaine lassitude de la part de l'interviewé et engendrer des risques de confusions. 58

HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

À l'origine des enquêtes sur la presse, le matériel présenté pour pallier ce risque consistait en des exemplaires réels des titres étudiés (études «through the hook»). Avec l'augmentation du nombre des titres présents dans l'enquête, cette option s'est rapidement révélée impraticable; c'est la présentation du logo des titres (dans leurs graphisme et couleurs) qui est utilisée pour aider le souvenir. Une amélioration sensible à cet égard a été introduite avec le recours à l'ordinateur portable. L'enquête AEPM utilise un «Capi 2 double-écran» : l'enquêteur utilise le microordinateur sur l'écran duquel apparaissent toutes les consignes de déroulement de l'enquête (le délivrant ainsi du souci de gérer les différents «filtres») ; le répondant dispose d'un écran propre qui affiche les logos des titres au fur et à mesure de l'interrogation. Le logiciel gère en outre la rotation aléatoire des titres (en respectant certaines règles de cohérence) pour minimiser les biais d'ordre.

L'Audiovisuel Les deux études de référence sur l'audience de la radio (étude «75 000») et sur l'audience de la télévision (panel audimétrique «Médiamat») sont réalisées par l'institut Médiamétrie.

L'étude d'audience

de la

radio

Elle est conduite par téléphone sur un échantillon annuel de 75250 individus, à raison d'environ 250 interviews par jour. Le plan d'échantillonnage combine tirage aléatoire et quotas. Certaines régions géographiques sont sur-représentées (en fonction de l'implantation des stations) ; les individus de 65 ans et plus (dont les audiences présentent une variabilité moindre) sont sous-représentés (bien entendu, les résultats font l'objet de redressements en conséquence). La durée moyenne de l'interview est de 25 minutes. Les informations recueillies sur la radio sont les suivantes : - notoriété assistée des stations, sur la base d'une liste de 20 à 60 stations, selon les départements ; - habitudes d'écoute sur l'ensemble de la journée pour un certain nombre de stations «majeures» (ayant passé le filtre de la question de notoriété) ; - écoute des 24 dernières heures (et non de la veille ; les 24 heures qui ont précédé le moment de l'interview, entre 17h30 et 21h30). HERMÈS 37, 2003

59


Emmanuel Fraisse

Le concept d'audience retenu est «l'écoute, ne serait-ce qu'un instant» ; la résolution temporelle du relevé est au «demi-quart d'heure», ce qui constitue une précision limite, si l'on considère qu'elle repose sur le souvenir des répondants (qui peut être très précis sur certains moments charnières de la journée, sensiblement plus approximatif pour d'autres, en particulier lorsqu'il s'agit d'écoutes peu attentives, accompagnant d'autres activités ; la difficulté se double alors de l'incapacité où peut se trouver le répondant d'identifier la station qu'il écoutait). Les résultats calculés sont : - l'audience quart d'heure par quart d'heure ; - l'audience du quart d'heure moyen ; - la durée moyenne d'écoute par individu ; - l'audience cumulée (sur 24 heures) ; - la durée moyenne d'écoute par auditeur de chaque station. L'effort mémoriel demandé à l'interviewé interdit de procéder à un relevé suffisamment précis au-delà des 24 dernières heures. Pour reconstituer les comportements d'audience dans la durée, on procède, une fois par an, à une étude complémentaire qui consiste en un panel d'une durée de trois semaines, par carnet d'écoute auto-administré. La population de référence de l'étude était traditionnellement la même que pour les études presse (les «15 ans et plus») ; à la demande de certaines stations (musicales, d'audience jeune), cette limite d'âge a été ramenée à 13 ans en 2002 ; en la circonstance, NRJ a pris la première place en audience cumulée. Une révolution méthodologique majeure est en cours concernant la mesure de l'audience de la radio, avec l'émergence de systèmes de mesure électronique : elle repose sur la technologie de capteurs portables qui captent et identifient les signaux émis par les différentes stations. Un tel système fonctionne en Suisse depuis 2002 (sous forme de montres-bracelets portées par les panélistes) ; un système concurrent fait l'objet d'expérimentations aux USA et en Angleterre. Le coût de ces systèmes est élevé par rapport à l'enjeu que représente le marché publicitaire de la seule radio ; ils esquissent sans doute l'avenir de l'audimétrie télévisuelle, confrontée au développement des récepteurs mobiles.

La mesure d'audience

de la

télévision

Elle est sans doute celle qui est le plus connue du grand public (qui continue à la désigner comme «l'audimat», alors que son nom officiel est, depuis plusieurs années, le «Médiamat»). La technologie audimétrique consiste à coupler au récepteur de télévision un appareil (l'audimètre) qui enregistre en permanence l'état du récepteur (marche ou arrêt, canal de 60

HERMÈS 37, 2003


Que mesure-t-on quand on mesure l'audience ?

diffusion en fonctionnement). Le système est complété par un boîtier de télécommande, sur lequel chaque membre du foyer est identifié par un bouton. L'information relevée est déchargée la nuit en utilisant (silencieusement ! ) les lignes téléphoniques. Parce qu'elle évite le recours à la mémoire, parce qu'elle autorise un relevé d'une grande précision, avec une mise à disposition très rapide de l'information, la technologie audimétrique constitue, indéniablement, une avancée remarquable du point de vue du recueil des données. Elle n'est pas, pour autant, sans problèmes ; notamment : - celui du recrutement du panel : le niveau d'engagement demandé au foyer qui rentre dans le panel est élevé et engendre des taux de refus importants. Le contrôle de l'échantillon selon les critères socio-démographiques ne constitue pas une garantie sans faille de sa parfaite représentativité par rapport au phénomène étudié ; - le système n'est pas totalement «passif» : il suppose une collaboration permanente des panélistes, qui doivent déclarer leur présence dans l'audience au moyen de la télécommande : il est difficile d'imaginer que la discipline soit, à cet égard, à tout moment parfaite (des enquêtes coïncidentales sont périodiquement réalisées pour vérifier que le niveau de collaboration est «satisfaisant») ; - les audiences «hors-domicile» sont imparfaitement saisies (la télécommande prévoit des boutons pour «des visiteurs») ou ignorées (audiences réalisées dans des lieux publics...) Le panel Médiamat compte 3 150 foyers - soit plus de 7 600 individus de «4 ans et plus» (la population de référence; consigne est donnée aux adultes d'actionner l'audimètre pour les individus les plus jeunes). Les résultats produits sont : - l'audience cumulée (jour) ; - l'audience instantanée ; - la durée moyenne d'écoute ; - les parts de marché des chaînes ; - l'audience des émissions et des écrans de publicité. Ces indicateurs sont déclinés sur 24 cibles standard : l'accès aux données individuelles permet (dans les limites statistiques) le calcul sur n'importe quelle combinaison de critères. Cette présentation elliptique de quelques-unes des études de référence s'est efforcée de faire ressortir les principales dimensions de la problématique de la mesure d'audience et l'état de l'art en la matière. Il s'agit d'un domaine en évolution très rapide, tant du côté des technologies, que du côté de l'offre et des pratiques de consommation des médias. L'un des principaux défis posés à la mesure est le phénomène de la « fragmentation » des audiences, qui s'oppose à la logique des échantillons (même de grandes tailles) sur HERMÈS 37, 2003

61


Emmanuel Fraisse

laquelle repose la technique des sondages. Les progrès de la statistique, l'accroissement de la puissance informatique au service de l'exploitation des méga-bases de données vont, sans doute, dans un avenir proche, relayer au moins partiellement la technique du sondage classique.

NOTES 1. Cati : Computer assisted telephone interview (interview téléphonique assistée par ordinateur). L'enquêteur lit les questions sur l'écran de l'ordinateur et saisit les réponses directement sur le clavier. 2.

62

Capi : Computer assisted personnal interview (interview en face à face assistée d'un ordinateur).

HERMES 37, 2003


Jean-Marie Charon Centre d'étude des mouvements sociaux (CEMS) CNRS

PRESSE ECRITE : DU TIRAGE AU LECTORAT La presse écrite comme tous les autres grands médias dispose d'une analyse de l'audience de ses titres, pourtant celle-ci est récente au regard de l'ancienneté du média. Les caractéristiques de celui-ci, le très grand nombre de titres, les conditions de son utilisation, lui confèrent également une très grande spécificité au regard de la télévision ou de la radio. Ses méthodes d'analyse et les limites qu'elles rencontrent font l'objet de débats réguliers, qui n'ont pas manqué de conduire, en 1993, à un éclatement entre d'un côté l'analyse de l'audience des quotidiens et de l'autre celle des magazines, sous la direction d'organismes distincts. Moins connues du grand public, voire des spécialistes des médias, que l'étude de l'analyse de l'audience de la télévision, les questions concernant l'analyse de l'audience de la presse écrite sont intéressantes dans la mesure où elles introduisent à des questions qui vont progressivement concerner bien d'autres médias, soit la multiplicité de titres et la très forte segmentation et atomisation qui en découlent.

Le lent cheminement vers la notion d'audience Au regard d'une histoire riche de plus de trois siècles et demi, l'idée de comptabiliser les acheteurs, puis les lecteurs de la presse écrite est finalement assez récente. Il suffit de parcourir un ouvrage consacré à l'histoire des journaux pour constater que jusqu'aux HERMÈS 37, 2003

63


Jean-Marie Charon

années 1920 il n'est fait référence qu'aux tirages de ceux-ci. Les historiens insistent d'ailleurs sur la prudence nécessaire pour traiter de tels chiffres qui peuvent être retrouvés dans les archives concernant les différents éditeurs et exclusivement produits par ceux-ci, avec la difficulté à connaître comment ceux-ci étaient produits (chiffres bruts, moyennes, etc.), sachant qu'aucune norme n'existait dans ce domaine et encore moins de système de contrôle. Il est enfin très difficile d'évaluer de manière fiable l'écart existant entre les tirages et la vente réelle, le pourcentage d'invendus ou de «bouillon», variant sensiblement avec l'apparition de la vente au numéro (deuxième moitié du XIXe siècle1 et le ratio vente par abonnement vente au numéro. Ce n'est qu'en 1923 que les éditeurs vont s'accorder sur la création d'un organisme, chargé de collecter, contrôler et donc garantir le nombre de quotidiens vendus, autrement dit la «diffusion». Cet organisme, l'Office de justification de la diffusion (OJD), publie chaque année les chiffres de diffusion des titres qui souhaitent que soient connues leurs performances. Cet «OJD» est le fruit d'une déclaration «sur l'honneur» des éditeurs, des contrôleurs étant chargés de vérifier la véracité des dites déclarations. Cette démarche vérité, qui n'est pas sans entraîner des coûts d'abonnement à l'organisme de contrôle, n'est bien évidemment pas liée à une pure soif de connaissance, ou une volonté de transparence à destination du public. Il s'agissait plutôt de répondre aux demandes de plus en plus pressantes des annonceurs d'obtenir un indicateur fiable de la puissance de chaque titre. Il faut noter que les années 1920 voient se lancer les premiers magazines de conception moderne 2 , faisant un appel substantiel à la publicité, sans parler de l'apparition de la radio, premier média prétendant ne vivre que de la publicité. La comparaison du contrôle de la diffusion avec les méthodes utilisées par nos voisins européens, notamment britanniques et allemands, donne à penser que l'évolution souhaitable va dans le sens de l'accélération des contrôles avec la publication de statistiques plus fréquentes, trimestrielles par exemple. En matière de contrôle, nos voisins mettent davantage de personnes chargées de vérifier et garantir la fiabilité des statistiques. Bien que la notion de diffusion ne soit pas la plus pertinente pour les annonceurs, qui s'intéressent aux lecteurs eux-mêmes, l'audience, il n'empêche que le nombre d'exemplaires vendus d'un titre intervient comme une sorte d'étalon à partir duquel peut être appréhendée la crédibilité des études d'audience. Il faudra attendre la fin des années 1950 (1956)3 pour que soit créé le Centre d'étude des supports de publicité (CESP), organisme paritaire entre les médias et le secteur de la publicité (agences et annonceurs) qui, lui, a pour vocation de définir les conditions d'étude de l'audience, de même que la conduite de celle-ci. En matière de presse écrite, l'étude d'audience procède par vagues d'enquêtes en face à face, sur de gros échantillons. Plusieurs chiffres sont alors saisis, la lecture la plus récente, sorte de photographie de la lecture au moment de l'entretien, dite Lecture Dernière Période, ainsi que la lecture durant la période 64

HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

sur laquelle court l'enquête (équivalent de l'audience cumulée des radios). En 1993, quotidiens et magazines, ne réussissant plus à s'accorder sur les conditions de l'analyse d'audience, feront éclater le système, chaque forme de presse réalisant sa propre analyse d'audience, sous la direction de son propre organisme d'étude de l'audience (Euro-PQNPQR pour les quotidiens, AEPM pour les magazines), avec des méthodologies légèrement différentes (Lenain, 1995). La place des publicitaires a été relativisée"4. Chaque forme de presse, redevenue propriétaire de ses chiffres, entend en faire l'exploitation conforme à ses intérêts, tout comme elle entend les mettre en perspective avec diverses données de pratiques médiatiques ou de consommation.

Les caractéristiques de l'enquête d'audience L'enquête sur l'audience de la presse depuis qu'elle fut mise au point par le CESP s'effectue par questionnaires, auprès de gros échantillons. L'AEPM procède par entretiens en face à face, l'Euro-PQN par interviews téléphoniques. Son évolution, surtout après l'éclatement entre quotidiens et magazines, a conduit à renforcer toujours les échantillons. Il sont de 20000 personnes (de 15 ans et plus) pour l'étude AEPM et 22400 pour Euro-PQN 5 . Elle a aussi multiplié les vagues d'administration des dits questionnaires, afin de prendre en compte les variations saisonnières. L'enquête AEPM s'est ainsi d'abord administrée en six vagues successives de chacune 2500 interviews, pour être aujourd'hui répartie régulièrement sur 350 jours par an. Pour limiter les effets liés aux jours de la semaine, les interviews sont menées à égalité sur chaque jour de la semaine, y compris les samedis et dimanches 6 . L'échantillon respecte scrupuleusement par un système de quotas - la répartition géographique, les CSP ou niveau d'études du chef de famille7. Euro-PQN distingue un échantillon «quotidiens nationaux» de 6 000 interviews en région parisienne, d'échantillons s'adressant au public des différentes régions. Le questionnaire enregistre une lecture déclarée, par l'un des membres du foyer enquêté. Il confond les différents niveaux de lecture dans une formule unique : avez-vous «lu, parcouru ou consulté». Il distingue la lecture qui vient de se produire (le jour même pour le quotidien, la semaine pour l'hebdo, etc.) d'une habitude de lecture dont la fréquence est enregistrée. Ces deux modes d'appréhension permettent de produire deux données courantes: la Lecture Dernière Période ou LDP, qui correspond à la part d'audience pour les médias audiovisuels ; les habitudes de lecture, qui permettent de fournir une correspondance à l'audience cumulée. Ces résultats sont fournis à chaque titre HERMÈS 37, 2003

65


Jean-Marie Charon

adhérent, alors que les principaux chiffres pour l'ensemble des titres analysés, sont diffusés, deux fois dans l'année, sous forme de CD roms8. L'enquête AEPM ne se contente pas de saisir «l'audience» de chaque titre analysé. Elle collecte également des données concernant les pratiques des différents médias (radio, télévision, cinéma). Elle intègre également quelques données sur l'équipement et la consommation du ménage (habitat, automobile, produits bancaires). Enfin un questionnaire auto-administré est laissé à chaque interviewé, il porte sur les «pôles d'intérêt». Il s'agit en fait des loisirs et divertissements, des pratiques culturelles, comme des usages de communication, notamment le téléphone. Le cœur de l'enquête AEPM porte sur la présentation des titres à la personne interrogée. Les risques de confusion de titres, liés au nombre de ceux-ci ou à la proximité de ceux-ci dans certaines familles de magazines (ex. TV Hehdo, TV Magazine, etc.) ont conduit à proposer chaque titre sous forme de «vignette» reprenant le titre dans sa typographie, ses couleurs, sa présentation habituelle. Afin d'éviter des biais liés à l'ordre de présentation des titres, notamment avec des phénomènes de lassitude, les enquêteurs faisaient varier régulièrement le déroulement des présentations, qui se faisaient grâce à des «cahiers» à spirales. Aujourd'hui le recours à un micro-ordinateur à deux écrans contourne cette question par une présentation aléatoire des vignettes des différents titres9.

Les limites des études d'audience de la presse La principale limite, physique, à laquelle l'étude d'audience de la presse doit faire face, est celle du nombre de titres. Avec 70 quotidiens et surtout plusieurs milliers de magazines, l'enquête butte sur l'impossibilité de prolonger exagérément l'interview et de lasser la personne interrogée. Aujourd'hui le temps moyen se situe autour de trois quarts d'heures (46,9 minutes, exactement, en moyenne pour l'étude AEPM). Elle butte surtout sur l'atomisation de l'audience et l'impossibilité de multiplier les échantillons, indéfiniment, en grande partie pour des raisons budgétaires10. Or ce morcellement de l'audience au regard d'un échantillon limité - même s'il représente 20 000 interviews - pose un délicat problème d'intervalle de confiance, qui interdit de prendre en compte des titres dont l'audience serait insuffisamment massive, avec suffisamment de sécurité. Il faut remarquer que les commentateurs des résultats des études d'audience de la presse et même souvent les éditeurs eux-mêmes ont du mal à intégrer ces données d'intervalle de confiance lorsqu'ils constatent des évolutions de 1 à 2 % sur un titre dont l'audience est de l'ordre 1,3 million de lecteurs11. 66

HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

Enfin, le nombre de titres à passer en revue, en un temps limité, interdit de multiplier des questions permettant d'enrichir l'information de données qualifiant la lecture ou précisant les habitudes de consommation, les pratiques culturelles ou les comportements médias. Déjà a-t-il fallu se résoudre à recourir à un questionnaire auto-administré (donc moins contrôlé) pour les pôles d'intérêts12. Il ne faut pas non plus mésestimer que ce faible nombre de questions complémentaires pouvant être intégrées se trouve compliqué par les intérêts contradictoires des éditeurs abonnés à l'enquête. Il est incontestable qu'ici, les plus grands éditeurs, les grosses «forces de frappe» de la presse magazine, arrivent davantage à faire passer leurs préoccupations, liées aux argumentaires privilégiés à l'égard des médias planeurs et annonceurs13. Faute de pouvoir trouver de réponse technique satisfaisante, la confrontation au problème du nombre et de l'atomisation des magazines s'est soldée par une limitation drastique du nombre des titres étudiés, à partir de critères de taille: au moins 100000 exemplaires de diffusion (OJD), au moins 500 000 lecteurs. Ce qui revient de fait à limiter l'enquête à l'analyse de l'audience de 145 titres de magazines, seulement (!). C'est dire que la plus grande partie des magazines n'est pas étudiée; que les magazines des segments les plus en phase avec l'évolution du marché, très segmentés ; que les magazines créés depuis moins d'un an et demi (le temps d'un premier OJD), ne peuvent s'appuyer sur les études d'audience reconnues et contrôlées14. La seconde grosse difficulté tient au fait qu'il s'agit d'enquêtes déclaratives, dans des domaines sur lesquels pèsent des systèmes de valeurs très prégnants. Il faut surtout prendre en compte l'effet cumulé du déclaratif et des confusions possibles entre des titres parfois très proches dans leur dénomination, leurs concepts, leur contenu et leur forme pour les magazines. Le phénomène joue particulièrement lorsqu'il est question de prendre en compte des publications consultées, trouvées, prêtées, etc., durant l'année, dans des lieux aussi différents que des salons de coiffure, les salles d'attente de médecins, une banquette du métro, un hall de gare, etc.15 Pour les quotidiens l'étude déclarative, par téléphone semble privilégier les titres bénéficiant de la plus forte notoriété. La plupart des utilisateurs potentiels des résultats de ces études sont assez conscients de ces difficultés et de ces limites. Ils savent pourtant qu'il n'y a pas vraiment d'alternatives et moins d'améliorations envisageables, que l'on avait pu l'imaginer au début des années 1990. Chacun pourra se consoler en notant que de tels résultats d'études relèvent de conventions sur lesquelles il suffit que l'ensemble des opérateurs concernés soient d'accord. C'est largement le cas pour l'ensemble des professionnels de la presse, chez les régies et les annonceurs habitués à travailler avec la presse écrite. Les choses peuvent se compliquer pour les médias planeurs et les annonceurs travaillant surtout avec l'audiovisuel, qui ne retrouvent pas le sentiment de garantie technique fournie par les audimètres et autres dispositifs techniques. HERMÈS 37, 2003

67


Jean-Marie Charon

Il reste surtout que la très grande majorité des titres ne sont pas pris en compte par les études contrôlées et labellisées par le CESP, alors même que la qualification de la lecture, du cheminement dans la consultation d'un titre sont bien éloignés d'un chiffre de LDP, d'où une série de tentatives d'aménager ou compléter le système d'étude «officiel».

Les réponses actuelles aux limites des études d'audience de la presse Plusieurs réponses sont aujourd'hui données aux limites des études d'audiences contrôlées par le CESP. Les premières concernent les titres trop petits pour être pris en compte. Elles prennent la forme le plus souvent d'enquêtes «ad hoc» auprès de publics cibles, qui permettent d'estimer l'audience probable des titres. Les méthodes sont plus ou moins fiables, il n'en reste pas moins que ces études pâtissent d'une image d'études «maison» dans lesquelles les cabinets d'études seraient dépendants des commanditaires, un éditeur, un titre... Les «petits titres» peuvent également recourir à l'étude «Sofrès 30 000», étudiant la lecture de chaque titre souscripteur auprès d'un échantillon de 30 000 personnes de 15 ans et plus. Les acheteurs d'espace ont toutefois tendance à considérer que celle-ci comporte des inconvénients assez proches de ceux des études ad hoc (échantillon trop faible concerné pour un titre donné, etc. ), sans parler, là encore, du problème de l'intervalle de confiance. Certaines familles de titres peuvent aussi s'organiser afin d'échapper en partie à ce type de suspicion, telle est l'approche retenue par les éditeurs de presse pour les jeunes16, ainsi que la principale régie intervenant sur ce marché, Interdéco17. L'étude «Consojunior», lancée en 1999 est reproduite tous les deux ans. Elle prend en compte 118 titres lus par les jeunes (de 2 à 19 ans) et comprend 7200 interviews par questionnaires réalisés en plusieurs vagues et respectant la représentativité par tranche d'âge. L'enquête comporte elle aussi un volet en face à face et un volet auto-administré. Elle intègre quatre grands chapitres: la pratique média (dont la lecture avec les mêmes notions de Lecture Dernière Période et d'Habitudes de lecture), la consommation, l'environnement socioculturel, l'utilisation de l'informatique et des jeux vidéo (Charon, 2002). L'effort particulier fait par les éditeurs et leur volonté de se coordonner sur une telle démarche tient pour une large part à la faible attractivité de la presse jeune pour les annonceurs, ce qui est un phénomène historique, qui se voit amplifié par le choix spontané des mêmes annonceurs pour le support télé. Il n'en reste pas moins que le coût élevé est faiblement compensé par l'apport de nouvelles recettes publicitaires, alors même que l'espacement de deux années entre deux études, paraît bien long pour des annonceurs habitués à jongler avec les courbes du médiamat de la veille. 68

HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

Une autre approche consiste à privilégier une catégorie de lecteurs particulièrement intéressante pour les annonceurs. Telle est la démarche de l'étude «IPSOS Cadres», dite FCA (France cadres actifs). 5200 cadres (3 800 «affaires et cadres supérieurs» et 1400 «professions intermédiaires») sont interrogés par téléphone à propos de 70 titres. Outre l'audience proprement dite, l'étude «qualifie» celle-ci de données concernant les pratiques de consommations du public concerné. Le souhait de pouvoir mieux appréhender le détail et la qualité de la lecture des titres de presse débouche sur la déclinaison, sous des formes variées, de la méthodologie des études « Vu-Lu ». Le principe de base consiste à interroger le public d'un titre sur le détail du contenu (les titres, les graphiques, les textes, les différentes rubriques) et de tenter de cerner ce qui a été lu ou simplement vu. Certaines études proposent un barème de notation selon l'intérêt ou la satisfaction tirée de la lecture de chaque article. La limite à la sophistication des questionnaires est celle de la lourdeur de l'exploitation de telles statistiques, sans parler du coût qui en découle. Les études Vu-Lu sont menées pour un titre donné, épisodiquement, parfois sur plusieurs numéros de suite.

Conclusion Les études d'audience de la presse pâtissent des caractéristiques particulières du média, à commencer par le très grand nombre de titres et la diversité des pratiques (parcours) de lecture possibles. Les résultats des grandes études peuvent ainsi apparaître disproportionnés au regard des moyens mis en œuvre et de la rusticité des indicateurs produits. Les études d'audience sont ainsi de peu d'intérêt pour les concepteurs et praticiens du contenu qui y trouvent peu d'éléments, d'où le développement de méthodes plus spécifiques tels que les Vu-Lu et surtout depuis les dernières décennies d'approches plus qualitatives, tels que les «groupes» (Charon, 2003). Pour ce qui est des professionnels de la vente et de l'achat d'espace publicitaire, la difficulté porte davantage sur l'harmonisation des méthodes entre les différents médias. Il est clair que, dans ce domaine, les outils d'analyse de l'audience de la télévision, avec le minute à minute, présentent une supériorité, qui tient au sentiment d'immédiateté du résultat donné et de suivi de chaque contenu, sans parler d'un sentiment de «sécurité» lié à l'outil technique lui-même18. Toute la question est de savoir si le problème de l'atomisation de la presse n'anticipe pas sur l'état que connaîtra progressivement la télévision avec des dizaines et même des centaines de chaînes accessibles sur des supports diversifiés (téléviseur, ordinateur via le Net, etc.).

HERMÈS 37, 2003

69


Jean-Marie Charon

NOTES 1. C'est Le Petit Journal, lancé par Moïse Millaud en 1863, qui va développer le premier la vente au numéro, au prix de un sou. La possibilité est donnée aux lecteurs populaires de payer leur quotidien jour après jour et non plus d'avancer le prix de l'abonnement, dissuasif. Ce pari, qui impliquait de concevoir tout un réseau de vente spécifique, constituait l'une des clés de la réussite de la presse populaire naissante, il donnait également naissance à la notion d'invendu ou de «bouillon», la garantie de satisfaire tous les acheteurs potentiels se présentant à un vendeur ne pouvant intervenir qu'en prévoyant un nombre d'exemplaires mis à la disposition de chaque vendeur, légèrement supérieur à sa vente courante. C'est la notion de «réglage». Un taux d'invendu de 20 % pour un quotidien classique est considéré en presse comme un réglage assez performant. 2.

La presse féminine voit ainsi naître en 1920, la version française de Vogue, alors que Le Petit Écho de la Mode tire un million d'exemplaires en 1922, face au Jardin des Modes, à Minerva (1919), à Êve (1919) ou aux Modes de la femme de Prance, etc.

3.

Le second poste périphérique à vocation nationale, Europe 1, est apparu en 1954, engageant désormais une concurrence frontale avec Radio Luxembourg, future RTL.

4.

Ce sont les éditeurs de la presse magazine qui dirigent l'ΑΕΡΜ, et qui entendent ainsi exploiter les résultats de celle-ci en fonction des intérêts propres du média. Les publicitaires sont en revanche présents dans les groupes de travail intervenant dans la conception et le suivi de l'étude elle-même.

5.

L'étude «MRI», qui fait référence aux Etats-Unis, utilise un échantillon de 27 500 personnes, apparemment plus important, mais qui doit être rapporté à 197,5 millions d'Américains de 18 ans et plus, représentant une population très hétérogène répartie sur un territoire très vaste.

6.

L'obsession de limiter les biais, voire certaines pratiques des éditeurs, visant à améliorer leurs scores en jouant sur les dates des «vagues» ont conduit à recourir à un étalement sur chaque jour de l'année.

7.

À l'étranger la plupart des études d'audience de la presse se font par entretiens téléphoniques et tirages aléatoires. La disponibilité des données INSEE aurait conduit en France à privilégier un échantillon défini par quotas.

8.

Les régies et médias planeurs utilisent également une notion d'audience «primaire» - le «cœur de l'audience» selon eux - constituée des lecteurs dont le foyer est acheteur du titre.

9.

Ce dispositif d'un ordinateur avec un écran tourné vers l'interviewé et un vers l'intervieweur est à la fois récent (janvier 2001) et inusité ailleurs dans le monde. Il semble qu'il intéresse plusieurs organismes d'étude de l'audience chez nos voisins européens.

10. En 2002, l'abonnement «de base» de chaque titre se situait à 14000 euros (90000 francs), auquel s'ajoute un tarif proportionnel au chiffre d'affaires publicitaire (soit un doublement du prix de base pour la plupart des titres). 11. Dans une note «Interdéco expert», son auteur fait remarquer qu'un titre dont l'audience se situait à 1,385 million, représentait en fait 579 réponses sur 20000 interviewés, soit 2,9% du total. L'intervalle de confiance permet alors de dire avec certitude que l'audience se situe entre 2,7 et 3,1. Ce qui conduit à situer l'audience probable entre 1,274 million et 1,496 million de lecteurs. 12. Face à la contrainte de temps la tentation est de renvoyer davantage de sujets dans le volet auto-administré. Les utilisateurs de l'enquête sont pourtant réticents, vu la distorsion qui en découle, de par des conditions

70

HERMÈS 37, 2003


Presse écrite : du tirage au lectorat

différentes d'administration, mais aussi par un taux de non-réponse et non renvoi qui peut devenir inquiétant, comme cela se produirait pour l'enquête Euro-PQN obligeant à des redressements parfois importants. 13. Pour la presse quotidienne, le regroupement de titres dans le cadre du « 66-3 » visant à vendre un espace publicitaire aux normes communes (dans 66 titres, pour trois insertions, moyennant un tarif unique, une seule négociation commerciale, tout comme une seule facturation, pour l'annonceur) facilite la coordination du travail pour l'étude Euro-PQN. 14. Un média planeur déclare ainsi: «Le problème de l'audience de la presse, c'est l'inégalité de traitement. On a 250 titres sur lesquels on sait presque tout grâce à l'ΑΕΡΜ, FCA, l'OJD, qui sont contrôlés... et 3/4 000 titres pour lesquels on ne sait rien de fiable, sérieux, etc. » 15. L'enquête recueille d'ailleurs ces indications de provenances diverses des exemplaires lus ou consultés. 16. Il existe également une étude Agrimédia, concernant la lecture des exploitants agricoles, Cessim pour les milieux médicaux, etc. 17. Régie publicitaire filiale du groupe Hachette Filipacchi Média, qui assure la régie de Bayard presse, de Excelsior (Sciences & Vie junior, Sciences & Vie Découverte) ainsi que quelques-uns des titres Disney Hachette. 18. Il est significatif à cet égard qu'un projet ait été avancé, il y a quelques années, qui proposait de substituer aux méthodologies déclaratives actuelles, l'équipement d'un échantillon de la population de lecteurs de codes barres, prenant la forme de montres, qui auraient enregistré au fur et à mesure la lecture des journaux, avec l'inconvénient pour les membres de l'échantillon de devoir faire lire le code barre de chaque titre lu, lors de chaque prise en main...

RÉFÉRENCES

BIBLIOGRAPHIQUES

AEPM, l'Audience de la presse magazine, Paris, décembre 2001. BELLANGER, C , et al. Histoire générale de la presse française, t. 3 et 4, Paris, PUF, 1972 et 1975. CHARON, J.-M,, Les Médias en France, Paris, La Découverte, 2003. CHARON, J.-M., La Presse des jeunes, Paris, La Découverte, 2002. KERMOAL, F , Mieux connaître ses lecteurs. Les méthodes d'analyse du lectorat et des supports, Paris, Éditions du CFPJ, 1994. LE FLOCH, P., SONNAC, N . , Économie de la presse, Paris, La Découverte, 2000. LENAIN, B., L'Efficacité de la publicité dans la presse, mémoire ESCP, Paris, 1995.

HERMES 37, 2003

71


Marie-Dominique Chevreux Radio France

LA RADIO PIONNIERE La radio est un média en bonne santé, en phase avec le style de vie des Français. Chaque jour, plus de 40 millions de personnes ouvrent leur poste de radio et le laissent allumé plus de trois heures en moyenne. En dix ans, la radio a gagné cinq millions d'auditeurs. L'équipement des foyers montre bien l'importance de ce média dans la vie quotidienne puisqu'on trouve un peu plus de six postes de radio par foyer, autoradio inclus, et que cet équipement est de plus en plus sophistiqué avec un nombre croissant de postes équipés de système de pré-programmation, de télécommande et du RDS. L'offre à disposition des auditeurs est riche puisqu'on recense plus de 1300 stations de radio en France. Dans les plus grandes agglomérations, c'est en moyenne une soixantaine de stations qui peuvent être captées. Si la partie la plus jeune de la population consacre la majorité de son écoute aux programmes musicaux et la partie la plus âgée aux programmes généralistes, le reste de la population est plus éclectique dans ses choix et navigue entre les différents formats proposés. La mobilité croissante des individus ne les empêche pas de suivre leurs émissions préférées, une part importante de l'écoute se fait en voiture (23 %) et au travail (17 % ) .

La mesure de l'audience de la radio est une histoire ancienne La radio est dans un univers concurrentiel depuis très longtemps. Déjà, entre 1923 et 1945, il y a eu coexistence d'un secteur privé et d'un secteur public. Au cours de la période de monopole de l'Etat qui a suivi, de 1945 à 1982, des stations émettant depuis l'étranger HERMÈS 37, 2003

73


Marie-Dominique Chevreux

pouvaient être entendues. La plus ancienne était Radio Luxembourg rejointe par Europe n° 1 et plus tardivement par Radio Monte-Carlo, lorsque celle-ci, appartenant pour moitié à l'Etat français, a bénéficié de l'émetteur grandes ondes de Roumoules. Cette situation originale de la radio a entraîné très vite le besoin de mesurer l'audience. La première enquête périodique a été réalisée en 1949 par l'IFOP-ETMAR à l'intention des stations et des publicitaires (ce n'est qu'en 1961 que ces enquêtes ont été étendues à la télévision). Le Centre d'étude des supports de publicité (CESP) a pris sa succession en 1968 et, pendant un peu plus de vingt ans, a interrogé chaque année 12 à 14 000 personnes réparties en trois ou quatre vagues. Parallèlement le service des études d'opinion de l'ORTF est devenu, après la loi du 7 août 1974, le Centre d'études d'opinion (CEO), organisme rattaché au Service juridique et technique de l'information (SJTI). Le CEO avait pour mission de fournir aux pouvoirs publics la mesure de l'audience de chacune des sociétés de programme issues de l'éclatement de l'ORTF et d'évaluer la qualité de leurs programmes, ces données devant servir pour la répartition de la redevance. Les annonceurs n'avaient pas accès aux résultats, en revanche, le CEO avait l'autorisation de les vendre aux stations de radio privées. Le CESP et le CEO n'utilisaient pas la même méthodologie, entretiens en face à face au domicile de l'interviewé pour le CESP et panel postal pour le CEO, et obtenaient des résultats divergents. En 1983, pour des raisons à la fois politiques et techniques, la tutelle décida de transformer le CEO en une société «dont le capital serait majoritairement détenu par l'Etat et les sociétés du secteur public audiovisuel» avec une participation minoritaire des partenaires privés. Ce fut la création de Médiamétrie en 1985. La méthodologie de l'étude évolua, le panel fut remplacé par une enquête téléphonique quotidienne et les résultats furent commercialisés. Depuis cette date, Médiamétrie est l'organisme de référence des acteurs du marché radiophonique (stations de radio, annonceurs, agences...) et également des autres médias à l'exception de la presse. Ses outils évoluent et s'enrichissent selon les besoins de ces marchés.

Une connaissance du public évaluée avec des outils complémentaires L'enquête 75 000+· de Médiamétrie mesure l'audience des stations nationales et sert de socle à la mesure d'audience des stations locales. Un panel, réalisé chaque année depuis 1995 par le même institut, complète et affine la connaissance des publics en montrant l'aspect dynamique de l'écoute et en permettant d'apprécier la fidélité des auditeurs. 74

HERMÈS 37 , 2003


La radio pionnière

L'enquête 75000+ a subi de nombreuses évolutions en un peu plus de quinze ans, mais ses principes de base sont restés les mêmes. Elle doit son nom au nombre d'interviews annuelles et repose sur du déclaratif c'est-à-dire qu'elle fait appel à la mémoire des personnes interrogées. Elle est réalisée par téléphone, chaque jour de septembre à juin entre 17 h30 et 21h30. L'échantillon est sélectionné par tirage au sort dans les annuaires, avec une procédure pour atteindre les foyers inscrits en «liste rouge», la méthode des quotas est ensuite appliquée. L'interrogation porte sur l'écoute des 24 dernières heures depuis janvier 1999. Auparavant, elle portait sur l'écoute de la veille de l'interview, le but de cette modification étant de faciliter le travail de mémorisation. L'écoute est recueillie avec une précision au demi-quart d'heure et donne des résultats sur une journée moyenne de semaine (lundi-vendredi), sur le samedi et sur le dimanche. L'enquête «75 000» va indiquer un volume d'audience, un nombre d'auditeurs sur une journée, par tranche horaire et va nous dire quelles catégories de la population sont présentes. Elle va permettre de se situer par rapport à la concurrence, de voir les évolutions et de mesurer si les émissions mises en place séduisent suffisamment de personnes. Le panel consiste dans l'interrogation pendant trois semaines, une fois par an, d'un même échantillon qui remplit quotidiennement un carnet d'écoute. Il offre la possibilité de déterminer des auditoires sur une période plus longue que la journée. On peut définir un auditoire-semaine, un auditoire-trois semaines (couverture), connaître l'audience des différents jours de la semaine etc. Il permet de comprendre comment se construit l'audience telle qu'on l'observe dans la 75 000+, de suivre les transferts et les duplications d'écoute. Le panel permet de définir des cibles comportementales, par exemple les auditeurs fidèles de la tranche d'information d'une station ou les occasionnels d'un programme culturel et de voir leurs modalités d'écoute. Autant de renseignements riches et utiles pour les directions de chaîne principalement utilisés dans un but d'aide à l'optimisation des grilles de programme. On peut schématiser en disant que l'enquête 75 000+, de nature transversale, propose une photographie de l'auditoire alors que le panel montre un film. Les deux études seront utilisées de façon complémentaire.

Des indicateurs pour préciser les différents comportements d'audience Avec ces deux études, le marché dispose d'une panoplie d'indicateurs pour appréhender toutes les facettes de l'audience. Mais comment définir l'audience? Est-ce un HERMÈS 37, 2003

75


Marie-Dominique Chevreux

nombre d'auditeurs, un temps passé à l'écoute, une certaine fidélité ? Il existe de multiples réponses et l'on privilégiera certains indicateurs selon l'axe sur lequel on se placera. Ces indicateurs peuvent être répartis en deux familles : - ceux qui comptabilisent les individus ; - ceux qui comptabilisent des comportements. Dans la première famille, on trouve l'audience cumulée au cours d'une journée, mesurée dans l'enquête «transversale» et les couvertures et accumulations que permet l'enquête par panel. Chaque individu a le même poids quelle que soit sa durée d'écoute dans le cas de l'audience cumulée ou sa fréquence d'écoute dans le cas de la couverture. Dans cette première famille, on mesure des auditoires. Dans la deuxième famille, il s'agit de l'audience du quart d'heure moyen, du volume d'écoute. Les individus sont pondérés par leur durée d'écoute ou leur fréquence d'écoute et ce sont essentiellement des audiences qui sont mesurées, c'est-à-dire des «auditeurs x quarts d'heure». Ce sont ces indicateurs qui se traduisent aussi en parts de marché ou parts d'audience. Selon les objectifs à atteindre, l'attention se portera sur l'un et/ou l'autre des indicateurs : en ce qui concerne les auditoires, pour certaines stations, il est primordial de rencontrer quotidiennement un public important. Pour accroître leur auditoire, leur stratégie consistera à fidéliser les auditeurs d'un jour à l'autre, à augmenter donc leur fréquence d'écoute. En revanche, pour d'autres stations, la couverture sur une période plus longue donnera une évaluation plus exacte de leur impact et leur objectif peut être d'avoir une couverture maximale sur une période donnée quitte à avoir de nombreux auditeurs «régulièrement» occasionnels, écoutant une fois ou deux par semaine. De même, on n'accordera pas la même importance à la durée d'écoute selon les stations. Il est normal que des programmes qui engendrent un fort renouvellement du public aient une durée d'écoute plus faible que celle des radios généralistes pour lesquelles c'est un indicateur essentiel. L'indicateur du quart d'heure moyen intègre à la fois le nombre d'auditeurs et le temps passé à l'écoute. C'est un indicateur majeur pour la commercialisation des espaces publicitaires. Il sert également à calculer la part d'audience et permet de se situer différemment par rapport à la concurrence. La richesse des différents indicateurs permet de mieux évaluer l'adéquation entre les publics dans la diversité de leur nature et de leur demande, et la variété des offres radiophoniques commerciales ou de service public. Prenons l'exemple de deux stations de Radio France :

76

HERMES 37, 2003


La radio pionnière

Couverture 3 semaines

Audience cumulée d'une journée

24,3 % 8,6%

11,9% 1,3%

France Inter France Culture

Nombre de jours Durée d'écoute d'écoute d'une journée (en 3 semaines) 2h02 10,3 j 3,2 j

lh25

Source: Médiamétrie panel 2001/2002

On observe que les ordres de grandeur et les rapports entre les indicateurs sont différents pour les deux stations. France Inter obtient une couverture élevée associée à une fidélité importante à la fois au cours d'une journée (durée d'écoute) et d'un jour à l'autre (fréquence d'écoute). France Culture multiplie son audience cumulée sur une journée par 6,6 en trois semaines grâce aux nombreux auditeurs qui viennent de façon ponctuelle pour un type d'émission précis. Des polémiques reviennent régulièrement notamment sur l'évolution du média ou sur le classement des stations qui pourraient laisser penser à une grande pauvreté dans la qualification de l'audience. Il n'en est rien et il existe d'autres indicateurs que l'audience cumulée et la part d'audience.

Les publics de la radio Média de masse, la radio concerne toutes les catégories de la population ; le facteur le plus discriminant, que ce soit dans la manière de consommer la radio ou dans le choix des programmes, est l'âge. L'audience des moins de 35 ans se constitue avec une pénétration forte (90% pour les 13-34 ans) et un temps passé à l'écoute proportionnellement court (2h50 un jour moyen), alors que le phénomène est inverse pour les plus de 60 ans (76 % de pénétration et 3 h30 de durée d'écoute). Les plus jeunes constituent majoritairement le public de la radio en soirée. Dans ce contexte, l'âge auquel débute la mesure de l'audience est un enjeu économique important et a fait l'objet de nombreuses discussions au cours des dernières années. Les études d'audience radio ont, depuis leur début, pris en compte les auditeurs à partir de 15 ans. Désormais c'est la population de plus de 13 ans qui est sondée, suite à une décision commune des acteurs du marché, afin de mieux prendre en compte la réalité. HERMES 37, 2003

11


Marie-Dominique Chevreux

Les autres cibles utilisées pour l'analyse des données sont, comme pour les autres médias, les catégories socio-démographiques classiques : profession, habitat, région, etc. Si elles sont encore efficaces vis-à-vis des annonceurs et, le sont-elles vraiment, elles sont peu adaptées à la réalité pour les concepteurs de programmes et, en tout cas, insuffisantes. Considérer l'audience «des cadres» revient à supposer que cette cible représente une population homogène, ayant peu ou prou les mêmes comportements, les mêmes besoins et les mêmes attentes. C'est avoir une vision stéréotypée de la société et aller à l'encontre de l'évolution des modes de vie. Ces catégories ont pour seul avantage d'être simples à comptabiliser mais elles perpétuent des clichés, par exemple l'opposition hommes/femmes. Des cibles de nature plus qualitatives, reflétant mieux les valeurs et les courants porteurs du monde d'aujourd'hui, seraient plus pertinentes. Mais leur constitution nécessite un processus plus complexe de recueil d'information et une actualisation régulière.

Le rythme de sorties des résultats Bien que l'interrogation soit quotidienne, les responsables de programmes ne disposent de résultats que quatre fois par an sur les périodes janvier-mars, avril-juin, septembre-octobre et novembre-décembre, et encore ne s'agit-il que des radios nationales. La situation est pire pour les stations locales, la majorité d'entre-elles ne pouvant compter sur des résultats qu'une fois par an. On est ainsi bien loin de la situation de la télévision ! Cette exploitation est justifiée par le temps qui rythme le média. Les grilles de programme vivent sur un temps annuel, une saison radiophonique allant de septembre à juin avec des émissions différentes proposées durant l'été. Mais ce rythme de sorties laisse dans l'ignorance des phénomènes importants comme les périodes de vacances scolaires, les «ponts» et jours fériés, les périodes d'actualité très spécifique (événements sportifs, politiques...) qui sont ainsi diluées dans la moyenne. Cela devient d'autant plus problématique que l'instauration des 35 heures, entre autres phénomènes, a modifié profondément le rapport au temps et la façon de prendre des congés ou de gérer sa semaine, ce qui n'est pas sans influence sur l'écoute de la radio, très liée aux activités de la journée. Tout comme les résultats portent, en semaine, sur un jour moyen car les grilles sont historiquement identiques du lundi au vendredi, alors que le samedi et le dimanche ont leur programme propre. Certaines stations comme France Culture ou France Musiques ne rentrent pas dans ce schéma. Fonctionnant avec des grilles verticales, elles ne peuvent connaître leur profil jour par jour que grâce au panel, c'est-à-dire une fois par an. 78

HERMÈS 37, 2003


La radio pionnière

Les limites actuelles de la mesure de l'audience Les supports sur lesquels on écoute la radio ont beaucoup évolué. On peut maintenant suivre son émission préférée sur Internet, écouter un programme, disponible ou non par voie hertzienne, via la télévision par le câble ou le satellite, ou écouter les flashs d'information sur son téléphone mobile. Ces pratiques sont encore limitées mais cependant en croissance régulière. On ignore d'ailleurs si ces nouveaux modes d'écoute sont complètement assimilés à de la radio dans la tête des auditeurs et si les interviewés de l'enquête 75 000 pensent à l'inclure dans ce qu'ils déclarent écouter. Les mesures d'audience spécifiques d'Internet ne savent pas prendre en compte correctement le flux audio. L'écoute de la radio par le canal de la télévision va pouvoir être appréhendée par le Médiamat maintenant que les foyers équipés en numérique sont intégrés dans le panel. On pourra ainsi avoir une idée du volume de cette audience, mais il sera difficile de recueillir des informations plus précises.

Comment se profile l'avenir de la mesure de l'audience de la radio ? La mesure passive de l'audience de la radio, à l'instar de celle fournie par l'audimétrie pour la télévision, est à l'ordre du jour. Elle existe déjà en Suisse et est expérimentée dans d'autres pays. Son principe repose sur la comparaison entre, d'une part, les données d'écoute recueillies par l'intermédiaire d'une montre ou d'un boîtier qui enregistrent, compressent et stockent les sons ambiants, donc la radio, quelques secondes par minute et, d'autre part, le contenu des stations de radio. Quand il y a concordance entre les données de la montre ou du boîtier et le contenu d'une station X, l'audience sera affectée à cette radio X. La différence majeure entre les deux systèmes actuellement développés concerne l'identification des stations. Dans un cas, les radios sont identifiées par un code qu'elles envoient dans leur programme, code inaudible pour l'auditeur bien évidemment, dans l'autre cas, l'ensemble des stations de radio est enregistré. Pour des raisons pratiques et économiques, les audimètres ne peuvent pas être distribués chaque jour à un échantillon différent. La mesure doit être effectuée auprès d'un panel d'une durée plus ou moins longue, dépendante notamment des techniques de transmission des données pour le traitement. Dans un des systèmes, la capacité mémoire de la puce dans laquelle les données sont stockées est actuellement d'environ quinze jours. HERMÈS 37, 2003

79


Marie-Dominique Chevreux

Les avantages de ces méthodes sont importants : - l'exhaustivité, toutes les écoutes sont prises en compte quels que soient le lieu et le support (à l'exception du walkman paradoxalement). On devrait même pouvoir préciser sur quel canal de diffusion l'auditeur a écouté, poste recevant la FM, Internet, câble ou satellite (ex. le son passant par le satellite arrive avec un peu de retard) ; - l'exactitude de l'identification des stations et des heures d'écoute ; - la précision de la mesure, l'audience est recueillie seconde par seconde. Mais, cependant, elles ne résolvent pas tout et présentent aussi des inconvénients et des difficultés d'application. Bien que passives, ces méthodes nécessitent quand même une intervention humaine essentielle, porter la montre ou le boîtier tout au long de la journée et notamment dès le réveil, moment de prime time de la radio. Cette contrainte, alliée à une crainte éventuelle sur la protection de sa vie privée (bien que les sons enregistrés et aussitôt compressés ne puissent pas être reconstitués), peut engendrer des difficultés dans le recrutement de l'échantillon et donc entacher sa représentativité. Ces méthodes d'enregistrement automatique ne faisant plus appel à la mémoire mais prenant en compte absolument toutes les expositions au média, la fameuse problématique du «entendre ou écouter» va resurgir. Quand vous êtes sur un quai de gare sonorisée par une radio et que vous êtes plongé dans votre livre ou votre journal, avez-vous entendu quelque chose, êtes-vous réellement un auditeur ? En allant plus loin, certains modes de diffusion vont poser le problème de la définition de l'audience radio. Ainsi, il est possible de consulter en différé sur Internet des chroniques ou des émissions diffusées sur l'antenne. On peut soit les écouter au moment qui vous convient soit les lire. Comment mesurer ce phénomène, suffira-t-il qu'un fichier soit téléchargé ou ouvert ? Beaucoup de questions sur lesquelles se pencher. Le phénomène est marginal pour le moment mais le restera-t-il ? L'évolution des pratiques d'écoute rend plus complexe la mesure de l'audience. Les professionnels de la radio se doivent d'être de plus en plus attentifs à la qualité et à la précision de l'enquête.

80

HERMES 37, 2003


Régine Chaniac Institut national de l'audiovisuel (Ina)

TÉLÉVISION : L'ADOPTION LABORIEUSE D'UNE RÉFÉRENCE UNIQUE L'histoire de la mesure d'audience à la télévision est indissociable des principales évolutions qui ont transformé ce média et affecté le fonctionnement des chaînes de télévision entendu au sens le plus large. Le progrès des méthodes et des techniques, permis à la fois par le développement des enquêtes par sondage et l'essor de l'informatique, n'explique à lui seul, ni l'importance croissante prise par les données d'audience, ni l'évolution des indicateurs les plus couramment utilisés. Les différentes étapes qui ont mené d'une télévision publique en situation de monopole à un système mixte public/privé caractérisé par la concurrence sur le marché publicitaire ont fortement pesé. Avec la domination du modèle commercial, la mesure d'audience est devenue l'instrument central de régulation des chaînes de télévision généralistes. Contrairement à celui d'autres médias (la presse, le cinéma), l'auditoire de la radio et de la télévision ne peut être appréhendé à partir d'un comptage physique (nombre d'exemplaires ou de billets vendus). Pour évaluer l'audience et, plus largement, pour appréhender les habitudes d'écoute du public et ses opinions sur les programmes diffusés, la technique du sondage s'est donc rapidement imposée. Dès 1949, la radio, vivant déjà sous le règne de la concurrence entre service public et stations périphériques, s'est dotée d'un système régulier d'enquêtes financé par la RTF, les principales stations commerciales d'alors et les agences publicitaires les plus importantes. En ce qui concerne la télévision, l'installation d'un outil permanent a été précédée de toute une période où les études et sondages ne fournissaient pas un taux d'audience normalisé, mais plutôt des informations sur le public, sur ses comportements et ses attitudes par rapport au nouveau média. HERMÈS 37, 2003

81


Régine Chaniac

Les années de développement Durant les années 1950 et une bonne partie des années 1960, la demande des responsables de la télévision en matière d'audience n'est pas assez importante pour justifier l'installation d'un système coûteux de mesure: l'offre de programmes, limitée à quelques heures par jour, est volontariste, reposant sur un équilibre entre les genres relevant d'une ambition culturelle et informative et ceux relevant du divertissement. La concurrence entre chaînes n'existe pas, la publicité est absente et le public, qui augmente chaque jour, plébiscite les émissions proposées. La montée de l'équipement, rigoureusement enregistrée par le service de la redevance, est une des premières statistiques régulières qui indique à elle seule la forte popularité du média: on passe de 6 % de foyers équipés en 1957 à 62 % en 19681 ! Entre 1961 et 1967, un million de nouveaux comptes de redevance sont ouverts chaque année. La curiosité vis-à-vis de ce nouveau public existe et se traduit par un certain nombre d'enquêtes assez nombreuses et diverses, qui ne constituent pas un instrument permanent et systématique de suivi d'audience. Des sondages ponctuels sont confiés à des organismes extérieurs pour mieux connaître les caractéristiques démographiques et socioprofessionnelles des foyers équipés (INSEE, COFREMCA, etc.). Les enquêtes régulières mises en place pour la radio, et réalisées par l'IFOP-ETMAR pendant deux périodes d'une semaine par an, s'élargissent à partir de 1962 pour fournir les habitudes d'écoute des téléspectateurs (courbes d'écoute moyenne par jour). Le service des relations avec les auditeurs et les téléspectateurs de la RTF, dont l'activité est essentiellement tournée vers le traitement et l'analyse du courrier reçu spontanément, commandite et exploite ces études. Il gère également, à partir de 1954, un système quotidien d'interrogation par téléphone. Ce dispositif s'appuie sur un échantillon très faible (une centaine de personnes chaque soir), limité à la seule région parisienne et non représentatif de la population disposant d'un téléviseur (la population française est encore sous-équipée en téléphone). Plutôt qu'un instrument de sondage fiable, c'est un moyen d'établir un « dialogue presque immédiat »2 et continu avec le public, en recueillant à chaud les réactions de téléspectateurs au programme principal de la soirée. Il traduit aussi l'aspiration de Jean Oulif, responsable du service, de s'inspirer de l'exemple de la BBC déjà dotée depuis 1952 d'un sondage quotidien sur l'écoute de la télévision3.

Le panel

postal

Il lui faudra attendre 1967 pour avoir les moyens de mettre en place un dispositif permanent et fiable, capable de fournir des résultats par émission. La méthode adoptée par 82

HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

l'ORTF est celle du panel, qui consiste à conserver le même échantillon pendant un certain laps de temps, plus économique que le recrutement d'un nouvel échantillon chaque jour. Le panel, recruté selon la méthode des quotas, est représentatif de la population équipée en télévision âgée de 15 ans et plus (de 400 personnes à l'origine, il culmine à 1600 en 1972), réparti sur l'ensemble du territoire et renouvelé par moitié chaque semaine. Chaque personne recrutée remplit un carnet d'écoute pendant deux semaines, indiquant les émissions regardées (en entier ou en partie) et leur accordant une note d'intérêt. Le traitement des feuilles d'écoute, renvoyées par la poste chaque jour, permet de calculer un taux d'écoute et un indice de satisfaction pour chaque émission, dans un délai d'une huitaine de jours après la diffusion. L'indice d'audience utilisé alors est un composite puisqu'il rajoute au pourcentage de téléspectateurs ayant vu l'émission en entier la moitié de ceux qui l'ont vu en partie4. Ce mode de calcul, qui permettait de prendre en compte approximativement l'auditoire partiel d'une émission, met bien en évidence le caractère construit de tout indicateur d'audience. Les résultats du panel postal sont strictement confidentiels et réservés à un petit nombre de responsables de l'ORTF. Les rares résultats qui paraissent dans la presse sont généralement délivrés par les responsables des chaînes à des fins de communication. Michel Souchon fait remarquer que l'outil est destiné à éclairer une politique de programmes qui demeure encore volontariste et compare ses utilisateurs de l'époque à Talleyrand qui considérait que «l'opinion est un contrôle utile et un guide dangereux» 5 . Pourtant, certains professionnels accordent très vite une grande attention aux chiffres d'audience pour évaluer l'impact de leurs émissions, comme le raconte Etienne Mougeotte, disant de Pierre Desgraupes, directeur de l'information de la première chaîne de fin 1969 à juillet 1972, «il m'a aussi appris l'audience» 6 . Mais l'effet le plus important de l'introduction du panel postal n'est pas encore dans l'instauration d'une concurrence entre chaînes. Il réside dans la profonde désillusion entraînée par la comparaison des résultats soir après soir. Avec la création de la deuxième chaîne en 1964 et l'ouverture du choix qui en a résulté, avec l'enrichissement de l'offre propre à ces années d'expansion, le public montre clairement sa préférence pour les jeux, les sports, les variétés et les feuilletons7. Les responsables de l'Office peuvent maintenir un équilibre entre programmes culturels et programmes de divertissement, mais les grandes espérances pédagogiques sont déçues.

Deux systèmes parallèles

de mesure

d'audience

Un an après l'installation du panel postal, en octobre 1968, la publicité de marques est introduite à la télévision, uniquement sur la première chaîne. Cela conduit à l'installation d'une seconde mesure d'audience répondant aux besoins de la profession publicitaire. HERMÈS 37, 2003

83


Régine Chaniac

Le Centre d'étude des supports de publicité (CESP), créé en 1957 pour mesurer l'audience de la presse, reprend à partir de 1968 les enquêtes par vagues menées auparavant par l'IFOP-ETMAR pour la radio, interrogeant 12 000 individus par an sur leur écoute de la radio et de la télévision. Chaque vague (de deux à quatre par an) fournit quart d'heure par quart d'heure les courbes d'écoute des différentes chaînes. Les résultats sont utilisés, non seulement par les annonceurs et les agences de publicité, mais aussi par la Régie française de publicité, organisme public filiale de l'ORTF chargée de commercialiser les écrans de la télévision publique. Dans la mesure où les résultats du panel de l'ORTF ne sont communiqués qu'aux responsables de chaînes et aux pouvoirs publics, ce sont en effet les chiffres du CESP qui servent de référence pour la tarification des écrans. Deux systèmes parallèles vont ainsi coexister jusqu'en 1989, l'un réservé aux chaînes et l'autre s'adressant à tous les acteurs du marché. Il peut paraître paradoxal que les différents partenaires du marché publicitaire aient disposé pendant une bonne vingtaine d'années de données plus frustres que celles fournies par le panel postal. Le dispositif du sondage par vague ne permettait notamment pas d'avoir des résultats émission par émission, soir par soir, sur l'année entière. Les résultats étaient moyennes par jour «nommé». Les chaînes avaient d'ailleurs tendance à programmer leurs événements exceptionnels pendant les périodes de sondage, pour infléchir les résultats en leur faveur. Si les publicitaires se sont contentés de cette information pendant si longtemps, c'est parce que les écrans étaient strictement contingentés et que leur nombre était très inférieur à la demande. La Régie française de publicité profitait de cette situation de pénurie pour «gérer la file d'attente» et imposer ses conditions : elle vendait en fin d'année tous les écrans de l'année suivante, à un tarif uniforme selon les jours. Les annonceurs achetaient à l'aveugle, sans connaître le contexte de programmation exact et sans choisir la date de diffusion. Les chiffres du CESP leur suffisaient pour minimiser les risques en leur donnant l'audience moyenne de la chaîne sur le créneau horaire demandé.

La montée de la concurrence dans le service public Le début des années 1970 voit s'installer une certaine compétition entre les deux chaînes existantes. En 1971, la seconde s'ouvre à son tour à la publicité. En juillet 1972, les deux chaînes deviennent des régies distinctes au sein de l'ORTF, placées sous la responsabilité d'un directeur et ayant une certaine autonomie de fonctionnement. Leurs directeurs respectifs, Jacqueline Baudrier et Pierre Sabbagh, vont chacun s'attacher à leur donner une identité propre, une unité. Pierre Sabbagh reçoit clairement mandat 84

HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

d'augmenter l'audience de la seconde chaîne (limitée les premières années par un réseau d'émetteurs incomplet) pour se rapprocher de la chaîne aînée, et cela au moment où s'annonce la troisième chaîne. Les chiffres fournis chaque semaine par le panel permettent à leurs responsables de comparer les résultats des deux rivales, surtout pour le programme principal offert en première partie de soirée. Progressivement, la réussite des dirigeants de chaîne s'exprimera de plus en plus en termes d'audience. Prévus par la loi d'août 1974, l'éclatement de l'ORTF et la création de sociétés de programmes indépendantes, institutionnalise à partir de 1975 la concurrence au sein du service public. TFl et Antenne 2 ont chacune leur régie de publicité, filiale de la RFP, et négocient séparément avec les annonceurs ; la Loi de finances fixe chaque année le montant maximum de recettes pour l'une et l'autre, le total étant plafonné à 25 % des ressources globales de la télévision. Le service qui gérait à l'ORTF le panel postal, ainsi que l'ensemble des études complémentaires (quantitatives ou qualitatives) portant sur le public, devient le Centre des études d'opinion (CEO), rattaché aux services du Premier ministre. Le panel postal perdure à quelques évolutions près (intégration de la radio, augmentation progressive de la durée de panélisation, etc.). Parallèlement, les résultats du CESP, qui apportent un baromètre sur l'état de santé respectif des chaînes selon les tranches horaires, font l'objet d'une attention croissante au sein des chaînes. En effet, la RFP ne joue plus le rôle de boîte noire et chaque chaîne est dans une situation de dépendance nouvelle vis-à-vis des annonceurs, et cela par rapport aux chiffres qui ont vigueur sur le marché.

L'audimétrie

foyer

À partir de janvier 1982, l'audimétrie, déjà présente dans de nombreux pays d'Europe (ITV l'a adoptée dès les années 1960), s'installe en France avec un panel d'audimètres mesurant de façon passive l'écoute de 600 foyers (poste allumé, chaîne regardée). Ce nouvel outil, baptisé Audimat en France, enregistre les changements d'état du récepteur à la seconde près, mais ne distingue pas l'écoute des différents individus au sein du foyer. C'est pourquoi le panel postal est maintenu pendant trois ans encore pour fournir des résultats par individu. En fait, l'audimétrie représente une telle révolution au sein des chaînes que celles-ci se désintéressent progressivement du panel postal. Chaque chaîne, chaque régie est connectée à l'ordinateur central qui recueille et traite dans la nuit les données stockées par les audimètres. Les responsables disposent le matin des résultats de la veille, avec les taux d'audience moyenne et cumulée de chaque émission, et plus encore, la courbe d'audience globale et par chaîne, indiquant les arrivées et les départs des téléspectateurs, les reports d'une chaîne à l'autre. La rapidité, la précision s'accompagnent d'un degré de fiabilité HERMÈS 37, 2003

83


Régine Chaniac

inconnu jusqu'alors (on mesure le fonctionnement effectif du téléviseur, en neutralisant les erreurs liées au recours à la mémoire et au déclaratif) et de la richesse d'une représentation graphique qui permet d'un coup d'œil d'évaluer la performance d'une programmation. Pour Michel Demaison, alors responsable du service des sondages à Antenne 2, l'audimétrie a changé «les rapports entre la télévision et son public» 8 . Auparavant, les résultats du panel représentaient «un regard sur le passé», arrivant après tout un ensemble de réactions, comme celles de la critique, des pairs et des téléspectateurs qui s'exprimaient spontanément par téléphone ou par courrier, dont ils n'effaçaient jamais totalement l'impact. Avec l'Audimat, le verdict du public est intégré dans «le présent de la télévision» et prend le pas sur toutes les autres instances de jugement. La fascination pour le nouvel outil est partagée par les publicitaires qui revendiquent l'accès aux résultats. Alors que le panel postal n'était pas assez précis pour fournir l'audience des écrans. Audimat est tout à fait performant pour une mesure précise au niveau du foyer. Mais les chaînes et leurs régies craignent de partager des informations aussi stratégiques avec les agences et les annonceurs et bloquent les tentatives répétées de négociation9.

L'arrivée des chaînes commerciales La loi du 29 juillet 1982 supprime le monopole du service public en matière de programmation, en prévoyant la possibilité de créer des chaînes hertziennes selon un régime d'autorisation préalable ou de concession de service public. Elle supprime également le plafonnement des recettes publicitaires pour les chaînes publiques et introduit la publicité sur FR3. Après le démarrage du plan câble dès novembre 1982 et, deux ans après, de la chaîne payante Canal Plus, François Mitterrand annonce la création de deux chaînes privées, qui commencent à émettre au printemps 1986, sous le nom de La Cinq et TM6.

La création

de

Médiamétrie

Dans ce contexte de libéralisation, Georges Fillioud, secrétaire d'Etat chargé de la Communication, entreprend de sortir le CEO de son statut administratif afin de lui permettre de devenir un interlocuteur pour l'ensemble du marché. En juin 1985, une société de droit privé, Médiamétrie, dont le capital est détenu à 80 % par l'État (à travers l'ΙΝΑ, les trois chaînes publiques, la RFP, Radio-France) et les radios dites périphériques Europe 1 et 86

HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

RMC, voit le jour. Pour la première fois, les données d'audience calculées pour les diffuseurs peuvent être commercialisées auprès de la profession publicitaire, même si l'AACP, l'Association des agences-conseils en publicité, refusera dans un premier temps tout dialogue avec cette société contrôlée par les diffuseurs publics. Médiamétrie abandonne le panel postal, augmente le nombre d'audimètres à 1 000 et crée l'enquête téléphonique 55000 10 pour suivre l'audience de la radio et fournir, en moyenne mensuelle, l'écoute individuelle de la télévision. Audimat plus, créé en 1986, calculait une audience-individu probable 11 pour chaque émission, en appariant les résultatsfoyers par émission de l'Audimat et les résultats-individus de la 55 000 par quart d'heure moyen. L'utilisation pendant plusieurs années, par une grande partie de la profession, des chiffres purement hypothétiques de l'Audimat plus illustre encore à quel point la mesure d'audience n'est qu'une construction statistique faisant un temps donné l'objet d'un consensus. De l'autre côté, soutenu par l'AACP, un concurrent entre en jeu : le tandem SofrèsNielsen, qui propose lui aussi une fusion entre les données-foyer d'un panel de 200 audimètres installés en région parisienne et des données-individu issues d'un panel de 300 minitels sur la France entière. Certaines agences publicitaires s'abonnent à ce système moins coûteux que le précédent, de même que Canal Plus, qui a des besoins particuliers en mesure d'audience et peut suivre un échantillon de ses abonnés à partir du panel télématique.

La privatisation

de TFl

La décision de privatiser TFl, proposée par François Léotard et votée le 30 septembre 1986 par la nouvelle assemblée, prend effet en avril de l'année suivante, avec l'attribution de la chaîne à un groupe d'acquéreurs conduit par la société Bouyghes. Cette privatisation de la première chaîne publique (près de 40 % de part d'audience en 1986) fait basculer le paysage audiovisuel français dans un système concurrentiel : brusquement, le secteur public est mis en minorité, le nombre des écrans publicitaires commercialisés par TFl augmente fortement et, pour la première fois, l'offre globale d'écrans est supérieure à la demande. Les conditions de vente s'assouplissent, les tarifs s'affinent, les délais d'achat se raccourcissent. Dans cette situation d'ouverture du marché, un nouveau rapport de forces s'instaure entre les diffuseurs et les acheteurs d'espaces (annonceurs, centrales d'achat, agences). Ceux-ci sont tout-à-coup en mesure d'exiger leur participation au contrôle de l'institution chargée du calcul de l'audience et de peser pour l'adoption d'un instrument de mesure adapté à leurs besoins, c'est-à-dire capable de fournir l'audience des écrans chez certaines catégories de consommateurs. Le suivi du nombre d'individus touchés par une campagne, HERMÈS 37, 2003

87


Régine Chaniac

identifiés par cible de consommateurs, qui n'avait guère d'intérêt dans un contexte de rareté des écrans publicitaires, devient un enjeu pour la profession.

L'audimétrie

individu

La profession publicitaire réclame donc l'installation de l'audimétrie individuelle, qui permet de fournir les résultats d'audience par cible. Les audimètres sont équipés d'un boîtier de télécommande muni de bouton-poussoir et chaque membre des foyers panélisés se voit attribuer un bouton qu'il doit presser quand il commence à regarder la télévision, puis quand il arrête. L'audimètre à bouton-poussoir conserve l'enregistrement objectif des états du récepteur (marche/arrêt, changements de chaînes), auquel il ajoute celui de la déclaration volontaire des individus. Contrairement à l'audimétrie foyer, ce n'est donc plus un système passif. Mais la sophistication de la mesure l'emporte, aux yeux des publicitaires, sur les biais inhérents à la déclaration: erreurs d'utilisation et surtout, difficulté de constituer des échantillons représentatifs d'individus acceptant la contrainte du bouton-poussoir. Les concurrents de Médiamétrie profitent de cette opportunité. C'est tout d'abord Sofrès-Nielsen qui annonce l'augmentation de son panel et le passage à l'audimétrie individuelle ; puis le CESP, à la fois arbitre de l'ensemble des études d'audience et opérateur de l'enquête par vague radio et télévision, qui lance un appel d'offres en vue de constituer son propre panel d'audimètres à bouton-poussoir. En quelques mois, Médiamétrie réussit à s'imposer comme le fournisseur principal de l'audience télévision. Le CESP renonce à son projet et Sofrès-Nielsen abandonnera quelques années plus tard son panel, n'étant pas parvenu à convaincre les anciens diffuseurs, clients historiques de Médiamétrie. Médiamétrie fait entrer les publicitaires dans son capital à égalité avec les diffuseurs TV, à la faveur du désengagement de l'Etat et de la disparition de la RFP (février 1988), et annonce la mise en place de l'audimétrie individuelle. En 1989, le système baptisé Médiamat, s'appuyant sur un panel de 2 300 audimètres à bouton-poussoir, soit 5 600 individus ayant 6 ans et plus, entre en fonction et devient rapidement la référence unique pour l'ensemble des parties intéressées. Les résultats sont fournis sur 24 cibles standard, construites à partir de critères socio-démographiques (sexe, âge, taille de l'agglomération) et de critères de consommation (catégorie socio-professionnelle, responsabilité des achats). Ainsi apparaissent la «ménagère de moins de 50 ans» et la «ménagère avec enfants de moins de 15 ans», susceptibles d'acheter une forte quantité de ces produits de grande consommation (alimentation, hygiène-beauté, entretien, etc.), qui accaparent l'essentiel des investissements publicitaires sur le média télévision.

HERMES 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

Après l'arrivée des audimètres à bouton-poussoir, les évolutions concernant l'audience des chaînes généralistes sont mineures : en 1993, Médiamat prend en compte les plus jeunes enfants, dès l'âge de 4 ans; au cours de l'année 1999, le panel s'élargit à 2750 foyers, soit 6640 individus; à partir de mars 2000, 280 foyers équipés en réception numérique sont intégrés au panel, grâce à de nouveaux audimètres capables de mesurer à la fois l'audience d'une offre diffusée en numérique et en analogique; l'année suivante, un nouvel élargissement intervient et, en 2003, le panel Médiamat comprend 3 150 foyers, soit 7 600 individus de 4 ans et plus.

Les indicateurs : la montée e n puissance de la part d'audience Parallèlement à l'évolution des outils, des méthodes et du statut de l'instance chargée de mesurer l'audience, celle des indicateurs utilisés traduit aussi le profond changement qui s'est opéré avec l'émergence du modèle commercial. Nous avons vu que le panel postal fournissait un indice d'écoute, calculé de manière à prendre en compte approximativement l'écoute partielle des émissions. Il était complété par un indice d'intérêt, appelé plus tard indice de satisfaction, établi à partir d'une note fournie par chaque panéliste (de 1 à 6). Le passage à l'audimétrie-foyer supprime cette appréciation du téléspectateur. Le premier indicateur de base de l'Audimat est l'audience moyenne (pourcentage moyen des foyers ayant regardé l'émission ou la chaîne), qui, contrairement à l'indice précédent, prend en compte l'ensemble des écoutes partielles pour leur durée exacte. Le second est l'audience cumulée (pourcentage de foyers ayant regardé au moins un certain seuil de temps l'émission ou la chaîne considérée). L'audience cumulée est supérieure à l'audience moyenne car elle compte en entier la totalité des foyers ayant été en contact avec l'émission. C'est un chiffre très utile pour un programmateur qui peut ainsi connaître l'étendue de la population touchée par une émission. Un nouvel indicateur fait progressivement son apparition au cours des années 1980: la part d'audience (ou part de marché). Il exprime le rapport, pendant une période donnée, entre le nombre de foyers à l'écoute d'une chaîne et le nombre de foyers regardant la télévision. Plus élevé que le taux d'audience moyen (calculé sur l'ensemble des foyers équipés TV), il fournit l'état de la concurrence. Lorsque la compétition se situait principalement entre deux chaînes publiques (la troisième ayant un auditoire beaucoup moins élevé que ses aînées HERMÈS 37, 2003

89


Régine Chaniac

jusqu'à la fin des années 1980), la part d'audience était peu utilisée en tant que telle. L'indicateur global fourni par le CEO et le CESP sur la répartition par chaîne de la durée d'écoute moyenne, fournissait aux responsables une appréhension immédiate du positionnement relatif des deux rivales. De même, un simple coup d'œil sur les résultats de deux émissions diffusées à la même heure donnait grosso modo leur poids respectif. Médiamétrie introduit l'indicateur dès 1985 en communiquant chaque semaine à la presse les parts de marché-foyer des chaînes, en même temps que la durée d'écoute moyenne et un palmarès des dix meilleurs résultats par chaîne (exprimés en audience moyenne). Cette part de marché, calculée sur la semaine, le mois ou l'année, devient rapidement une référence, non seulement pour les professionnels mais pour la classe politique et l'ensemble des observateurs. C'est le chiffre-clé pour hiérarchiser les chaînes dans un contexte de montée de la concurrence. Lorsque la privatisation de TFl est décidée, l'élément le plus significatif qui sera retenu pour déterminer sa valeur de cession sera sa part de marché d'environ 40 % à l'époque. Un cran décisif est franchi à l'été 1987 quand les repreneurs de TFl, en place depuis avril, craignent une baisse massive de l'audience, suite au départ de plusieurs animateurs de divertissements très populaires débauchés par La Cinq. Dans un tableau de bord hebdomadaire, chaque émission de la chaîne est évaluée par rapport à l'objectif global de part d'audience, fixé à 40 %. Pour la première fois, la part d'audience de chaque émission, calculée grossièrement au sein de la chaîne, devient une référence systématique et un critère de décision affiché. Dès l'année suivante, Médiamétrie propose à tous ses souscripteurs des résultats en audience moyenne et part d'audience, par émission et par quart d'heure. À partir de 1989, la mise en place de Médiamat permet de calculer tous les indicateurs précédents sur les individus, et non plus sur les seuls foyers. L'audimétrie individuelle fournit des parts d'audience par cible qui permettent de raffiner la communication des chaînes, aussi bien en direction des publicitaires (même si ces derniers n'achètent in fine qu'un nombre théorique de contacts, c'est-à-dire d'individus touchés) que des journalistes. Ainsi, lorsque la part d'audience globale de TFl commence à s'éroder au début des années 1990, la régie de la chaîne vante ses bons résultats auprès des «ménagères de moins de 50 ans», très recherchées par les annonceurs de produits de consommation courante. De son côté, M6 se présente comme «la chaîne des jeunes», ses responsables communiquant habilement sur des scores à certains moments plus élevés chez les moins de 35 ans. Même dans les chaînes publiques, la part d'audience devient progressivement l'indicateur omniprésent dans les discours des programmateurs qui, comme leurs homologues, justifient ainsi les changements de grille, l'arrêt ou le maintien d'une émission, le lancement d'une nouvelle formule. Il faut attendre l'émergence d'un outil de mesure d'audience propre aux chaînes de complément, diffusées par câble puis sur satellite, pour que l'audience cumulée reprenne de 90

HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

l'intérêt. Dans un univers où les auditoires sont fortement fractionnés, chaque chaîne souhaite appréhender, non plus les taux d'audience de chacun de ses programmes ou sa part d'audience, chiffres souvent dérisoires et frappés d'incertitude statistique, mais l'étendue de sa «clientèle» sur une période donnée. L'étude par vague Audicâble, créée en 1994 par Médiamétrie, devenue AudiCabSat en 1998, fournit ainsi un taux de couverture sur les trois semaines de l'enquête et un taux moyen sur la semaine. Puis ce dernier indicateur est calculé sur six mois avec l'outil permanent MédiaCabSat12, mis en place à partir de 2001, à partir d'un panel d'audimètres à bouton-poussoir. Toutefois, dès la seconde période de MédiaCabSat (septembre 2001-février 2002), Médiamétrie publie aussi la part d'audience des chaînes thématiques, seule une poignée d'entre elles atteignant le seuil de 1 % (Canal J, Eurosport, LCI, RTL9). À plusieurs reprises, nous avons souligné l'aspect conventionnel de la mesure d'audience : construction d'indices, extrapolation à partir d'enquêtes différentes, définition des cibles, etc. L'outil et le protocole adoptés, les indicateurs choisis sont le résultat d'un rapport de forces entre les parties prenantes. Les compromis successifs expriment des intérêts différents, des représentations différentes du public et de la télévision. L'exigence de disposer d'une référence unique pour le marché de l'espace publicitaire, propre au modèle commercial, s'impose aujourd'hui à l'ensemble des acteurs. Parallèlement, la part d'audience supplante les autres indicateurs pour comparer les performances des chaînes, fussent-elles exemptes de publicité (Arte) ou thématiques.

NOTES 1.

La montée de l'équipement est conditionnée par la mise en place progressive du réseau d'émetteurs nécessaire à la réception : en 1956, de nombreuses régions ne sont pas encore couvertes et il faut attendre 1966 pour que 95 % des zones habitées du territoire puisse recevoir la première chaîne (et 70 % la seconde chaîne).

2.

OULIF, Jean, PHILIPPOT, Michel, 1980, «La fable de la culture audiovisuelle», in Communication et langages, 4e trimestre, p. 100-109, cité par MÉADEL, Cécile, 1998, «De l'émergence d'un outil de communication», in Quaderni, n° 35, p. 63-78.

3.

Il faut préciser que la télévision britannique a été la plus précoce d'Europe, à la fois du point de vue de l'infrastructure de diffusion, développée intensivement à partir de 1949, de l'équipement des foyers et de l'offre de programmes: en 1958, le tiers des ménages britanniques sont équipés d'un récepteur (contre 6 % en France) et reçoivent déjà deux chaînes.

4.

SOUCHON, Michel, 1998, «Histoire des indicateurs de l'audience», in Quaderni, n° 35, p. 97-98.

5.

Idem, p. 97.

HERMÈS 37, 2003

91


Régine Chaniac

6.

Hors Antenne, avec DESGRAUPES, Pierre, in Les Cahiers du comité d'histoire de la télévision, n° 1, avril 1995.

7.

Pour le divorce entre télévision culturelle et télévision de divertissement, cf. MISSIKA, Jean-Louis, WOLTON, Dominique, La Folle du logis, p. 38-39 et suivantes.

8.

DEMAISON, Michel, 1988, «L'audimétrie en France», in Études de radio-télévision, RTBF n° 38, Télévisions mesurées et mesures de la télévision, Bruxelles.

9.

Cf. DURAND, Jacques, «Les études sur l'audience de la radiotélévision en France», in Quaderni, n° 35, p. 7992.

10. L'enquête doit son nom au fait que 55000 individus âgés de 15 ans et plus étaient interrogés chaque année (soit plus de mille personnes par semaine). Elle devient l'enquête 75000 en 1990 et la 75000+ depuis 1999. 11. Cf. DEMAISON, Michel, 1988, déjà cité. 12. Cf. «Il était une fois MédiaCabSat», dans ce numéro.

RÉFÉRENCES

BIBLIOGRAPHIQUES

BAHU-LEYSER, D . , CHAVENON, H., DURAND, J., Audience des médias. Guide France-Europe, Paris, Eyrolles, 1990. BOURDON, J., «À la recherche du public ou vers l'indice exterminateur? Une histoire de la mesure d'audience à la télévision française». Culture technique, n° 24, 1991, p. 131-140, BRIGNIER, J . - M . , CHAVENON, H., DUPONT-GHESTEM, F , DUSSAIX, A - M . , HAERING, H., (préface d'Emmanuel

FRAISSE), Mesurer l'audience des médias. Du recueil des données au média planning, Paris, CESP, Dunod, 2002. CHALVON-DEMERSAY, S., «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni, n° 35, 1998, p. 45-51, CHAMPAGNE, P , «La Loi des grands nombres. Mesure de l'audience et représentation politique du public». Actes de la recherche en sciences sociales, n° 101-102, 1994, p. 10-22. CHANIAC, R., «Programmer en régime concurrentiel». Dossiers de l'audiovisuel, n° 99, 2001, p. 24-27. CHANIAC, R,, La Télévision de 1983 à 1993. Chronique des programmes et de leur public, Paris, Ina, SJTI, La Documentation française, 1994. FANSTEN, M., «Le poids déterminant de la publicité dans le financement de la télévision». Dossiers de l'audiovisuel, n° 99, 2001, p. 10-14. DEMAISON, M., «L'audimétrie en France», Études de radiotélévision, (RTBF, Bruxelles), n° 38, 1988, p. 95-100. DURAND, J., «Les études sur l'audience de la radio-télévision en France», Quaderni, n° 35, 1998, p. 79-92. HURARD, F , «Mesure et connaissance du public des médias audiovisuels en France: éléments de problématique» in ALBERT, P., KOCH, E . U . , RIEFFEL, R., etc. (dir.), Les Médias et leur public en France et en Allemagne, Paris, Éditions Panthéon Assas, 2003, p. 193-210.

92

HERMÈS 37, 2003


Télévision : l'adoption laborieuse d'une référence unique

MALO, G., GIROUX, L., «La mesure industrielle des auditoires» in PROULX, S. (dir.), Accusé de réception. Le téléspectateur construit par les sciences sociales, 1998, Québec, Les presses de l'Université Laval, 1998. MAUDUIT, J., «Le roman vrai de la mesure d'audience» (en trois parties). Les Ecrits de l'image, n° 29,2000, p. 130142 ; n° 30, 2001, p. 62-72 et n° 31, 2001, p. 108-128. MEADEL, C , «De l'émergence d'un outil de quantification», Quaderni, n° 35, 1998, p. 63-78. MISSIKA, J.-L., WOLTON, D., La Folle du logis. La télévision dans les sociétés démocratiques, Paris, Gallimard, 1983. SAINCY, S., La Télévision en genre et en nombre. Analyse par genre du temps d'antenne et du temps d'écoute entre 1983 et 1991, Paris, Ina, SJTI, La Documentation française, 1992. SOUCHON, M., Petit écran, grand public, Paris, Ina, La Documentation française, 1987. SOUCHON, M., «Histoire des indicateurs de l'audience», Quaderni, n° 35, 1998, p. 93-106. SANTINI, G . , SANTIER, É . (dir.), L' Audience et les médias, Paris, IREP, Les Éditions d'Organisation, 1989, bibliographie de Jacques Durand.

Dossiers de revues et publications professionnelles : Études de radio-télévision, n° 38, «Télévisions mesurées et mesures de la télévision», Bruxelles, RTBF (RadioTélévision belge de la Communauté française), mars 1988. Dossiers de l'audiovisuel, n° 22, «Télévision ; La mesure de l'audience», sous la direction de Régine Chaniac, Paris, Ina, La Documentation française, novembre-décembre 1988. Réseaux, n° 39, «L'invention du téléspectateur», CNET, janvier 1990. Quaderni, n° 35, «Les publics: généalogie de l'audience télévisuelle», sous la direction de Sabine CHALVONDEMERSAY, Paris, Université Paris I Sorbonne, Sapientia, printemps 1998. Le Livre de l'audience. Télévision 1990, Paris, Médiamétrie, Economica, 1991. L'Année TV 2002 : les chiffres-clés, les palmarès, Médiamétrie, 2003 (chaque année depuis 1989).

HERMES 37, 2003

93


Olivier Appé Médiamétrie

Jean Mauduit Médiamétrie

CÂBLE ET SATELLITE : IL ÉTAIT UNE FOIS MÉDIACABSAT Depuis le début de Tannée 2001, Médiamétrie dispose pour les chaînes du câble et du satellite d'un nouvel outil spécifique de mesure d'audience, baptisé MédiaCabSat, qui répond aux exigences du marché... L'ancien dispositif, Audicabsat, fondé sur une méthodologie traditionnelle, s'essoufflait devant la multiplication des chaînes et des modes d'abonnement, si bien que beaucoup de thématiques n'étaient pas prises en compte dans la mesure d'audience. Impossible de laisser les choses en l'état. Et d'autant moins que dans le même temps, devant l'encombrement croissant de l'espace commercial, le gouvernement s'était mis en tête de limiter l'accès de la publicité aux antennes publiques. Il devenait indispensable de se donner de l'air en faisant entrer dans le jeu les chaînes du PAF de complément. Or, c'était l'époque où venait de naître une nouvelle génération d'audimètres, capables de saisir tous les types de réception : en analogique par câble ou hertzien, aussi bien qu'en numérique par câble ou par satellite. Cet audimètre d'un nouveau type avait permis à Médiamétrie, dès le début de l'année 2000, d'intégrer dans son panel audimétrique Médiamat1 280 foyers recevant l'offre élargie. MédiaCabSat est né de cette triple opportunité: les besoins criants du marché, une conjoncture économique favorable, une avancée technologique déjà validée. Ainsi s'est ouverte pour le nouvel outil une véritable fenêtre de tir. Et la profession s'est mise d'accord, dans des délais remarquablement courts, sur la création d'une nouvelle mesure audimétrique consacrée aux chaînes du câble et du satellite. HERMÈS 37, 2003

95


Olivier Appé et Jean Mauduit

Un grand pas e n avant pour la mesure d'audience Pour se faire une idée de l'ampleur du bond en avant, il est nécessaire de se reporter à ce qu'était l'Audicabsat : une enquête déclarative par carnet d'écoute auto-administré. Elle ne permettait qu'un suivi limité dans le temps, à travers une seule vague annuelle, à des dates plus ou moins prévisibles, si bien que certaines chaînes se trouvaient encouragées à programmer des opérations promotionnelles qui étaient pour l'audience autant de piqûres de cortisone : elles font grossir, comme chacun sait. En outre, le mode déclaratif du recueil de l'information se prêtait, inévitablement, aux erreurs de mémorisation et/ou de transcription. Enfin, le traitement était différent selon les chaînes : impossible, dans le cadre forcément restreint d'un questionnaire, de pré-formuler la totalité d'entre elles ; quarantehuit seulement l'étaient ; le reste était laissé à la dénomination faite par les interviewés sous la rubrique « autres ». Bref, pour explorer la nouvelle galaxie, sans cesse en mouvement, que constituent les chaînes du câble et du satellite, on en était encore au télescope de Newton ! Audicabsat avait ses mérites, et d'abord celui d'exister. Il avait représenté en son temps un grand progrès. Mais l'heure était venue pour lui d'entrer au musée. Pour remédier à cette situation, la démarche accomplie par la profession eut quelque chose d'exemplaire. D'abord, elle prit d'un commun accord la décision coûteuse et méritoire - méritoire notamment parce que coûteuse - de mettre en place un dispositif d'une tout autre envergure. Ensuite et surtout, elle participa étroitement à son élaboration par Médiamétrie. Il s'agissait, globalement, de passer à la mesure audimétrique pour les chaînes du câble et du satellite, autrement dit de substituer au carnet d'écoute une méthodologie électronique, avec toutes les perspectives qu'ouvrait cette mutation technologique. Toutes les chaînes seraient désormais prises en compte de la même façon. La vague annuelle d'interrogation de l'échantillon serait remplacée par un suivi permanent, 365 jours par an, vingt-quatre heures sur vingt-quatre. La possibilité serait offerte d'accéder plusieurs fois dans l'année à des résultats permettant d'observer les évolutions des comportements d'écoute et de saisir, le cas échéant, les phénomènes de rupture. Enfin la précision de la mesure passerait du quart d'heure à la seconde, si bien que la comptabilisation de tous les mouvements d'audience serait assurée. Vaste programme. Sur ces bases, un prototype fut conçu par les spécialistes de Médiamétrie, à travers ce qu'on peut bien appeler une relation dialectique avec les acteurs du marché. Le projet leur était soumis au fur et à mesure de son élaboration, au prix de copieuses réunions de travail. À partir du projet, un cahier des charges fédérateur des attentes du marché fut établi après une rencontre, le 19 septembre 2000, à laquelle participaient les représentants du CRTM (organisme de réflexion qui regroupe l'Union des Annonceurs et les agences médias), les régies publicitaires des chaînes du câble et du satellite, les opérateurs câbles et satellite, et 96

HERMÈS 37, 2003


Câble et satellite: il était une fois MédiaCabSat

des représentants de l'ACCeS (Associations des chaînes du câble et du satellite). Et c'est en répondant point par point à ce cahier des charges que Médiamétrie fut en mesure d'élaborer l'outil définitif, tel qu'il put entrer en service le 3 septembre 2001. Le MédiaCabSat est né de cet aller-retour permanent.

L'échantillon : vingt fois sur le métier Le premier point du cahier des charges portait naturellement sur la construction et la taille de l'échantillon, dont il était demandé qu'il reflétât l'exacte réalité de l'offre élargie en France tout en prenant en compte les différentes formules d'abonnement : sur les platesformes satellitaires, sur le câble analogique, sur le câble numérique, à la date du ler janvier 2002. Etaient évoqués également la nature des résultats fournis, leur périodicité, les modalités de fonctionnement de l'outil de mesure, enfin le planning et le financement. Concernant l'échantillon, quatre principes furent énoncés par Médiamétrie comme indispensables au respect des exigences formulées par le cahier des charges : - l'outil de mesure doit être représentatif de la diversité des offres ; - chaque chaîne thématique doit pouvoir accéder régulièrement à des résultats d'audience sur la population qu'elle considère comme son cœur de cible ; - les résultats doivent avoir la même précision statistique que ceux dont disposent les chaînes hertziennes avec Médiamat ; - il est indispensable de trouver le bon compromis entre la taille de l'échantillon et les moyens financiers dont dispose l'ensemble des souscripteurs. C'était relativement facile à énoncer. Pas du tout facile à faire. Et d'autant moins qu'à l'époque (cela n'a fait que s'accentuer depuis) le marché du câble et du satellite ressemblait déjà à un univers en fusion. Les deux plates-formes satellitaires, TPS et CanalSatellite, proposaient de nombreuses chaînes thématiques - de plus en plus nombreuses - dont les unes étaient reprises largement sur le câble en mode analogique, les autres présentes seulement dans l'offre numérique des câblo-opérateurs. Si bien que non seulement le nombre d'abonnés par plate-forme était naturellement différent, mais que les taux d'initialisation des chaînes2 étaient hétérogènes. La métaphore astronomique revient inévitablement à l'esprit: ces deux plates-formes étaient semblables à des galaxies ayant chacune son petit soleil, ses planètes de formation plus ou moins récentes, et même ses étoiles... filantes. Or chaque chaîne nourrissait la prétention, légitime, d'avoir accès à sa cible privilégiée, c'est-à-dire à la fois à l'ensemble des foyers recevant l'offre élargie et au sous-ensemble de ceux qui étaient en mesure de capter ses propres programmes. Sans HERMÈS 37, 2003

97


Olivier Appé et Jean Mauduit

oublier que certains cœurs de cible correspondaient à des populations très minoritaires et même très peu nombreuses. Il fallait pouvoir viser juste, à longue distance, sur des cibles parfois minuscules et généralement mouvantes. À titre d'exemple, voici deux chaînes A et Β visant exactement le même cœur de cible : les individus GSP +. A est distribuée sur CanalSatellite et sur le câble analogique; ces deux modes de réception cumulés concernent 70 % des individus recevant l'offre élargie, où la proportion de GSP + s'élève elle-même à 25 % : soit pour notre antenne une cible potentielle de (70 x 25) : 100 = 17,5 % de l'offre élargie. La chaîne B, quant à elle, est présente sur TPS et sur le câble numérique qui totalisent 30 % de la même offre élargie ; elle a donc une cible de (30 x 25) : 100 = 7,5 %, deux fois et demie plus restreinte. Comment, pour respecter le principe de service commun, faire en sorte que les deux chaînes accèdent au même type de résultats, c'est-à-dire au même degré de précision et de fiabilité ? Dans ce contexte hérissé de contraintes, notamment financières, l'entreprise était ardue.

Élémentaire, mon cher Gallup En fait, pour résoudre ce qui pouvait apparaître comme étant la quadrature du cercle, Médiamétrie disposait de la panoplie de moyens que fournissent le nombre combiné avec le temps et l'organisation. Le nombre, c'est-à-dire la taille de l'échantillon, est un paramètre évidemment incontournable, et qui financièrement parlant pèse lourd, en particulier en termes de recrutement. Aussi avait-il été posé comme principe, dès le départ avec l'accord des grandes chaînes hertziennes, que seraient utilisés les 480 foyers recevant l'offre élargie déjà présents au sein du Médiamat (riche au total de 2 800 foyers). A quoi viendrait s'ajouter un sur-échantillon d'abord fixé à 250 foyers puis, comme il était apparu que cette taille ne permettrait de couvrir «que» 95 % des besoins du service commun, à 350 soit au total 830 foyers, représentant 2250 individus. Mais le temps? que vient faire le temps dans cette galère? Elémentaire, mon cher Watson, ou plutôt mon cher Gallup. Etant posé comme principe que les résultats devaient offrir, pour chaque chaîne dépassant un million de foyers d'abonnés, une fiabilité statistique aussi grande que celle des résultats quotidiens des chaînes hertziennes dans Médiamat ; attendu par ailleurs que les résultats du Médiamat sont calculés sur une base minimale de 400 individus par cible, la solution tombait sous le sens : Médiamétrie préconisait d'établir des résultats moyennes c'est-à-dire en cumulant plusieurs jours d'information ; et avec un seuil minimal de 200 individus sur une cible, un cumul semestriel permettrait de garantir le résultat souhaité. Ici, le temps venait au secours du nombre. 98

HERMÈS 37, 2003


Câble et satellite: il était une fois MédiaCabSat

Quant à l'organisation, c'est-à-dire la structure de l'échantillon, elle permettrait, grâce aux méthodes classiques de redressement - en affectant à chaque individu un coefficient de pondération pour le calcul des résultats d'audience - de respecter scrupuleusement, a posteriori, les structures théoriques de la population cible.

Les surprises du marché Restait un problème fondamental, pour déterminer précisément ces structures: connaître la répartition des diverses composantes de l'offre élargie, et l'initialisation de chacune des chaînes concernées, dans ce paysage audio-visuel de complément caractérisé, nous l'avons dit, par la bigarrure des formules et des modes d'abonnement combinés au nombre de chaînes. Ce fut le rôle d'une enquête dite de cadrage, avec comme support l'enquête nationale 75 000 + (75000 interviews annuelles) utilisée par Médiamétrie pour s'informer sur les taux d'équipements audiovisuels qui servent de références pour le redressement quotidien du Médiamat, avec mise à jour tri-annuelle. Un questionnaire fut envoyé, avec leur accord, à 1200 personnes interrogées dans la 75 000 + et disposant d'une offre élargie; il leur était demandé d'y consigner les chaînes reçues dans leur foyer. Parallèlement, et à la demande de l'ACCeS (Association des chaînes du câble et du satellite) le CESP fut chargé de collecter auprès de chaque chaîne son nombre d'abonnés, le but étant bien entendu de comparer les deux sources. Et là, surprise. Les résultats, qui d'abord étaient cohérents, marquèrent à partir de la deuxième vague du MédiaCabSat une différence qui alla croissant. Dans quel sens? Les chaînes déclaraient davantage d'abonnés que Médiamétrie n'en trouvait. L'explication ? Il y en avait deux. D'une part, les chaînes comptaient en nombre d'abonnements alors que Médiamétrie évaluait le nombre d'abonnés ; or certains foyers sont multi-abonnés et vont par exemple compter pour deux aux yeux de la chaîne, là ou Médiamétrie en enregistre un seul. D'autre part, on peut imaginer sans trop faire preuve de mauvais esprit que le problème avait un aspect politique. Les chaînes, qui avaient choisi non sans courage de faire toute la vérité sur leur audience, s'exposaient au risque de voir les câblo-opérateurs procéder à une révision déchirante de leur financement, au prorata de leurs résultats. On peut comprendre que certaines d'entre elles aient eu tendance, par réflexe de survie, à optimiser leurs déclarations, par exemple en faisant entrer en compte les abonnés «gratuits» qu'engendrent les opérations promotionnelles. Reste que pour 80 % des chaînes suivies les résultats de l'étude et les déclarations des chaînes convergeaient parfaitement. Fallait-il considérer le verre comme à moitié vide ou aux trois quarts plein? Des HERMÈS 37, 2003

99


Olivier Appé et Jean Mauduit

vérifications complémentaires furent effectuées et des ajustements appliqués. En réalité, on peut considérer que la vérité du marché était en train de s'imposer. Et la vérité, parfois, est douloureuse ; mais c'est le prix à payer pour la transparence.

Quand le câble cassait les trottoirs des grandes villes Là-dessus, les résultats commencèrent à tomber. La première vague se déroula de février à juillet 2001, la deuxième couvrit la période de septembre 2001 à février 2002, la troisième allait du 3 janvier 2001 au 16 juin 2002, la quatrième est sortie le 11 mars 2003. L'ensemble - en attendant les vagues suivantes - fournit une moisson de données en évolution, et c'est tout l'intérêt du système. Il s'agit de photos successives du marché : en réalité un film, au ralenti, mais un film. Premier constat sur la troisième vague de résultats : la population des abonnés à une offre élargie continue d'augmenter (+ 2,7 % en nombre d'individus par rapport à la deuxième vague). Elle s'élève à un peu plus de 12 millions de personnes de 4 ans et plus, soit 23 % de la population équipée TV correspondante en termes d'âge. Un gros, gros marché déjà ! Le leader en est CanalSatellite3, suivi de près par le câble4 (abonnés à 15 chaînes et plus). Loin derrière, TPS5. Mais l'ensemble des deux plates-formes satellitaires représente presque le double du territoire du câble ; et TPS est celui des trois compétiteurs qui progresse le plus vite en nombre de foyers (+ 3,5 % par rapport à la vague précédente). À l'inverse la population câblée, même si elle augmente encore un peu, tend à se stabiliser (+ 0,7 %). La structure des abonnés, sur la base des 15 ans et plus, reste stable d'une vague à l'autre et conserve globalement les caractéristiques qui la distinguent de celle de la France équipée TV. Elle est par rapport à celle-ci nettement plus masculine, légèrement plus jeune et de statut social plus élevé. Mais c'est entre les trois sous-ensembles de l'offre élargie qu'apparaissent les différences les plus significatives. Les abonnés à CanalSatellite sont ceux qui comptent dans leur rang le plus grand nombre d'individus de sexe masculin, le plus de GSP +, le plus d'actifs. TPS recrute une population sensiblement comparable. En revanche le câble se singularise par sa pyramide des âges, qui marque un creux au niveau de la tranche des 35-49 ans, si bien qu'en fait de pyramide on a plutôt affaire à une bobine, plus étroite en son milieu ! Surtout, le câble porte les traces de son histoire. N'oublions pas qu'on l'a créé en ouvrant les trottoirs des grandes agglomérations. Aussi ne faut-il pas s'étonner si près des trois quarts de ses abonnés habitent des villes de plus de 100000 habitants, alors que c'est exactement le contraire pour les deux plates-formes satellitaires qui pénètrent largement dans les villes de moins de 100000 habitants. 100

HERMÈS 37, 2003


Câble et satellite : il était une fois MédiaCabSat

Madame Thématique reçoit le mercredi Les durées d'écoute, elles aussi, restent stables. Stables et conséquentes. Un individu, âgé de 15 ans et plus, abonné à une offre élargie consacre en moyenne à la télévision 3 h 45 par jour, dont l h 0 5 pour les chaînes thématiques. Les durées d'écoute correspondantes d'un enfant de 4 à 14 ans sont respectivement 2 h 20 et l h05 ; consommant moins de télévision en général que ses aînés, il s'attarde aussi longtemps qu'eux sur les thématiques. De là à penser que celles-ci l'encouragent à se scotcher au petit écran, il n'y a qu'un pas. Et c'est vrai pour toutes les catégories d'âge. Les abonnés à l'offre élargie consacrent davantage de temps à la TV (13 minutes par jour de plus, pour les 15 ans et plus, 9 minutes pour les 4-14 ans) que les individus recevant une offre restreinte. La part d'audience globale des thématiques est le reflet de l'importance qu'elles ont prise dans la vie des gens. C'est quoi, la part d'audience (PDA) ? Le pourcentage de temps consacré à une chaîne ou comme ici à un ensemble de chaînes, par rapport à la durée totale d'écoute de la télévision. Un bon indicateur, non le seul mais particulièrement solide, précisément parce qu'il fait entrer en ligne de compte la durée, et qui exprime bien les rapports de force entre les chaînes. Or la part d'audience des thématiques chez les abonnés de l'offre élargie dépasse 3 0 % , pour les 15 ans et plus, et atteint 45 % pour les 4-14 ans. D'une vague à l'autre la situation reste à peu près stable, sauf à constater que cette part d'audience a tendance à progresser légèrement chez les adultes (-h 1,4 % depuis la première vague de l'étude) et à perdre un peu de terrain sur le marché des jeunes (- 1,9 %) où seul le câble consolide ses positons. L'âge apparaît d'ailleurs un facteur déterminant pour l'audience des thématiques. On ne regarde la télévision ni autant de temps ni de la même façon au fil des années. C'est ce que reflète clairement l'évolution comparée, par tranches d'âge, des durées d'écoute totale TV et des PDA des thématiques. À 15 ans, ces deux indicateurs «décrochent», l'un de dix minutes, l'autre de près de dix points. C'est la période où la vie vous appelle. On a moins de temps à consacrer au petit écran, et surtout on consomme la rupture avec les émissions pour enfants. Puis vient le temps de la prise d'autonomie, de la vie en couple, de l'insertion sociale et professionnelle. On s'établit et même, on s'assoit : la durée d'écoute totale bondit de 2h 12 à 3h33 sur les 25-34 ans par jour, celle des thématiques ré-augmente aussi, mais dans des proportions moindres, si bien que leur part d'audience stagne à 35 %. Elle ne fera d'ailleurs que décroître avec l'âge, non parce que les thématiques sont délaissées mais parce que le temps total consacré à la TV ne cesse d'augmenter jusqu'à atteindre 4h39 pour les plus de 50 ans, tandis que la PDA des thématiques tombe à 27,1 %.

HERMES 37, 2003

101


Olivier Appé et Jean Mauduit

Durée d'écoute individuelle Total TV Enfants 4-14 ans 15-24 ans 25-34 ans 35-49 ans 50 ans et plus

2h22 2hl2 3h33 3h36 4h39

Part d'audience Chaînes thématiques (en %) 45,3 35,9

Durée d'écoute des chaînes thématiques 65' 48'

35,1 32,4 27,1

75' 70' 76'

Source : MédiaCabSat - Médiamétrie, janvier-juin 2002

Le poids des thématiques dans l'audience n'évolue pas seulement au fil des années, bien sûr. Elle varie au fil de la semaine et même des heures. Les thématiques ont leurs jours où leur part d'audience atteint ses plus hauts niveaux : ce sont le mercredi, jour des écoliers, le samedi et le dimanche, jour de la famille qui rassemble aussi bien les grands enfants que les petits. Durant la journée, la part d'audience des thématiques va à contre-courant de l'écoute TV en général, c'est aux heures de faible audience qu'elle est la plus forte - soit le matin entre 8h30 et 12 heures et l'après-midi entre 15 h et 19 h. Puis, elle décline fortement à partir de 18h30 au moment où la télévision «ordinaire» commence à faire le plein d'auditeurs pour remonter en fin de soirée. Comme si l'offre élargie, et plus particulièrement les thématiques, était une offre dans l'offre, une TV dans la TV !

Cinq chaînes sur le podium Et le palmarès des chaînes thématiques ? C'est toujours le même peloton de cinq qui occupe la tête du classement au fil des vagues, mais avec des parts d'audience dont la modestie est le reflet de l'extrême diversité du marché (63 chaînes ayant au moins 20 % d'initialisation). Viennent dans l'ordre RTL 9 (2,2 %), Eurosport (1,6%), Canal J (1,4 % ) , LCI (1,1 %) et Télétoon (1 %). Il est possible d'étudier ce palmarès par plate-forme, par cible en termes d'âge, ou encore par thèmes, et par thèmes croisés avec la plate-forme. On peut y constater que la fiction, chez les 15 ans et plus, représente la thématique-phare de TPS et, à un moindre degré du câble, loin devant le cinéma qui est surtout l'affaire de Canal Satellite. Pour les 4-14 ans, en revanche, la fiction et le cinéma arrivent loin derrière les émissions pour la jeunesse, qui rassemblent 26,5 % de part d'audience sur cette catégorie d'âge. 102

HERMES 37, 2003


Câble et satellite: il était une fois MédiaCabSat

L'enquête détaille même l'évolution des parts d'audience des thématiques par thèmes, du lundi au dimanche: cinéma, sport, information, documentaire, «généralistes», musicales. Une pleine moisson vraiment, de quoi remplir le grenier des hommes d'études et des spécialistes du marketing... jusqu'à la prochaine récolte.

Peut-on se passer du MédiaCabSat ? Reste à évoquer un problème de fond, pimenté de polémiques. Pour certains, les chaînes thématiques, jusqu'à l'instauration du MédiaCabSat, étaient le dernier espace de liberté pour les programmateurs. On pouvait s'y ébattre en toute impunité, innover, imaginer, faire entendre sa petite musique sans avoir à craindre la sanction de l'audience. Voici que tout est changé. Voici qu'un dispositif de mesure est capable de suivre chaque évolution, et les plus légers frémissements d'audience comme les ruptures les plus inattendues. Cette prise de position est respectable. Elle fait entendre une mélodie chère à nos esprits - la petite flûte de la liberté, le choeur des petits qui n'ont pas peur des gros. Mais elle ne résiste pas à l'analyse. Pourrait-on sérieusement envisager que les investisseurs financiers de tous ordres - actionnaires ou annonceurs - qui misent sur ces chaînes, se voient refuser les éléments de mesure dont ils ont besoin pour évaluer les retombées de leurs investissements ? Non bien sûr. À moins d'admettre que le média planning est une loterie et/ou qu'on vise mieux les yeux bandés. Ce qui, pour le moins, serait inconséquent.

NOTES 1. Celui qui mesure l'audience de la télévision hertzienne en général. 2. Nombre ou pourcentage de personnes ou de foyers en mesure de recevoir une chaîne sur au moins un récepteur. 3. 5105000 individus. 4. 4616000 individus. 5. 3 120000 individus.

HERMÈS 37, 2003

103


π . TÉLÉVISION: PROGRAMMER EN RÉGIME CONCURRENTIEL

Etienne Mougeotte Jean-Pierre Cottet Eric Macé Patrick Champagne Yves Jeanneret Valérie Patrin-Leclère


Entretien avec Étienne Mougeotte TF1

LA LOI D'AIRAIN DU MÉDIAMAT

Propos recueillis par Régine Chaniac et Jean-Pierre Jézéquel le 12 février 2003. Question: TF1 domine largement le marché, avec plus de 10 points d'avance sur la suivante, ce qui n'existe plus dans aucun pays d'Europe. Dans ce contexte de puissant leadership d'une chaîne commerciale, la formule souvent utilisée de «dictature de l'audimat» résume-t-elle bien le lien qui s'établit entre résultats d'audience et décisions de programme ? N'y a-t-il pas d'autres paramètres qui interviennent ? Il faut faire une remarque préalable. La dictature de l'audimat, c'est naturellement une formule polémique. On ne dit pas la loi, le poids, la force, on emploie le terme de dictature qui a une connotation plus que péjorative, insultante: la dictature, c'est insupportable. Quant à l'audimat, cela n'existe plus. L'audimat, c'était l'outil qui permettait de mesurer la consommation des foyers seconde après seconde; il a été remplacé par le médiamat, instrument infiniment plus sophistiqué, puisqu'il mesure l'audience de chacun des membres du foyer. Mais une fois diabolisé, on a gardé ce terme d'audimat comme l'expression de l'abomination absolue. Ce qu'il y a derrière cette formule, c'est l'importance qu'on attache à l'écoute des téléspectateurs et on peut alors exprimer la question de manière moins polémique: est-ce qu'il y a une loi d'airain du médiamat ? Cela se traduit comment pour un responsable de télévision privée ou pour un programmateur ? HERMÈS 37, 2003

107


Entretien avec Etienne Mougeotte

Il y a effectivement une attention réelle, forte, apportée au résultat d'audience, tout simplement parce qu'il mesure à la fois une forme de satisfaction du public (si je ne suis pas satisfait, je m'en vais, je vais voir autre chose) et des comportements (j'ai regardé tel programme, parmi une offre donnée). Quand on est responsable d'une chaîne de télévision comme TFl, qui ne vit que de la publicité, la mesure d'audience joue un rôle très important dans les décisions que l'on est amené à prendre. Il n'y a pas pour autant de loi mécanique qui entraîne la suppression immédiate d'un programme qui perd de l'audience. En règle générale, quand un programme récurrent perd de l'audience, on essaie de comprendre pourquoi on le regarde moins ou on le regarde de moins en moins. Quand on a fait cette analyse, qu'on croit avoir trouvé les raisons pour lesquelles ce programme plait moins, on essaie de le modifier, de l'amender, avec l'espoir qu'il va à nouveau plaire davantage. Cela signifie une chose assez fondamentale, c'est que nous faisons largement une télévision de la demande, et non pas une télévision de l'offre où les choix sont dictés non par la réaction du public mais par ce que l'on estime être le bon programme. J'essaie de comprendre ce que sont les demandes du public et je m'efforce de lui offrir des programmes qui répondent à ces demandes. De ce point de vue, il y a bien une loi de l'audience, qui fait que, sur une chaîne privée comme TFl, un programme qui durablement ne fait pas assez d'audience a peu de chance de survivre. Ceci est à corriger par certains facteurs: - la mesure d'audience est toujours rétrospective (je mesure ce que j'ai fait et non pas ce que je vais faire). C'est à partir des résultats de ce que j'ai fait que j'essaie de tirer un certain nombre de leçons pour ce que je vais faire. Néanmoins, on regarde toujours dans le rétroviseur; - par ailleurs, le potentiel d'audience d'un programme de télévision a une valeur relative, dans la mesure où ce programme va se situer dans un univers de concurrence qui n'est pas maîtrisé par le programmateur. Il est donc impossible de dire a priori qu'un programme va faire telle audience, cela dépend de la concurrence. Il faut toujours garder cela à l'esprit. C'est surtout vrai suprime time si on se trouve par exemple en face d'une case cinéma où les résultats sont extrêmement variables d'une semaine à l'autre. On contrôle mieux la concurrence en journée où les offres sont régulières, même s'il suffit d'un changement d'une série sur une autre chaîne pour créer une situation nouvelle. Question: Lorsque les premiers résultats d'une nouvelle émission sont décevants, quels sont les paramètres qui vous conduisent à tenter de l'améliorer ou à la retirer rapidement de votre grille ? C'est une appréciation très subjective qui consiste à se demander si le programme est susceptible de s'améliorer, de faire l'objet de modifications légères ou moins légères, qui vont 108

HERMÈS 37, 2003


La loi d'airain du médiamat

faire que peu à peu, il va s'imposer. Si on estime (à tort ou à raison) qu'on ne peut pas le réformer, il vaut mieux tout de suite arrêter. Pour prendre un exemple un peu ancien mais révélateur. Les Niouzes1 est une émission mise à l'antenne le lundi et arrêtée le vendredi, son audience était insuffisante et, surtout, baissait d'un jour à l'autre. Le jeudi précédent, quand on a fait le dernier pilote, j'ai failli prendre la décision très tard dans la nuit de ne pas démarrer. J'ai fait l'erreur de dire: «Tant pis, on y va, on est très loin de ce qu'on voudrait faire, mais néanmoins on l'a annoncé. » On savait que cela allait être très difficile, cela a été encore pire. On était parti sur des mauvaises bases et je pense qu'on ne pouvait pas réformer l'émission. À l'inverse, par exemple, au tout début de la privatisation de TFl, on avait créé un magazine de cinéma en deuxième partie de soirée, présenté par Michel Denisot, qui n'a pas donné les résultats espérés. On l'a arrêté très vite, et à mon avis à tort. Avec le recul, je pense qu'on s'est trompé. Si on avait accepté d'attendre quelques semaines pour lancer ce magazine hebdomadaire et le roder, on aurait peut-être pu le sauver. L'exemple le plus spectaculaire d'amélioration d'une émission, c'est Star Academy. En 2001, on a énormément souffert dans les premières semaines, on a été tenté de raccourcir le programme et de l'arrêter beaucoup plus tôt. Puis, en le travaillant, en modifiant peu à peu le contenu, on a redressé la barre. C'est le bon exemple d'une mauvaise décision qu'on aurait pu prendre et qu'on n'a pas été loin de prendre. Cela se joue souvent à peu de chose. Il faut être prudent quand on décide d'arrêter très vite, mais en même temps, il faut savoir prendre la décision parce que, quand on traîne semaine après semaine un programme qui déçoit le public, c'est très lourd à porter. La décision est largement prise au doigt mouillé. La mesure d'audience nous montre très bien ce qui s'est passé, elle ne nous dit pas ce qu'il faudrait faire pour que cela marche. Après, on peut faire des études qualitatives, mais c'est long, c'est compliqué et c'est aléatoire. Il peut aussi arriver que l'on maintienne un programme décevant parce que, dans l'immédiat, on n'a rien d'autre à mettre. Mais, quand on est en situation de catastrophe, quand l'audience est vraiment un désastre, on est obligé de changer très vite. Il ne faut pas oublier qu'un programme dont l'audience est défaillante est un programme qui repousse les annonceurs et on a, dans le fonctionnement d'une chaîne comme la nôtre, l'obligation d'avoir des recettes minimales. Et, de même qu'un directeur de théâtre qui ne remplit pas sa salle, finit par arrêter la pièce qui lui fait perdre de l'argent tous les jours, il y a un moment où l'on est obligé d'arrêter. On ne peut pas durablement perdre de l'argent. L'animateur d'une émission qui a un mauvais résultat ressent douloureusement le fait que son émission ne remporte pas l'adhésion, il se sent personnellement remis en cause dans son lien avec le public. C'est plus difficile pour lui que pour le producteur ou le diffuseur. Il faut l'aider à appréhender la relativité du résultat. Il m'arrive souvent de dire à un HERMÈS 37, 2003

109


Entretien avec Etienne Mougeotte

animateur, à un producteur: «Tu as fait 10 % de moins que la semaine dernière, et pourtant c'est mieux, parce que la concurrence était tellement plus forte qu'en réalité ce recul est plutôt un bon résultat. » On parle toujours de l'effet de chaîne, mais c'est le produit offert qui est prégnant. On dit ainsi qu'un film sur France 3 fait 1 0 % de moins que s'il avait été diffusé par TFl. Ce n'est pas l'effet de chaîne. C'est simplement que quand il est sur France 3, il a face à lui un programme de TFl qui est en général plus concurrentiel. Question: Une chaîne qui, comme TFl, attire en général une fraction importante des téléspectateurs à l'écoute, peut-elle vraiment cibler son auditoire ? La problématique de TFl depuis le début de la privatisation, c'est d'essayer d'être le plus puissant possible, d'attirer le plus grand nombre possible de téléspectateurs et, en même temps, d'être le plus performant possible sur les cibles recherchées par les publicitaires: les «ménagères de moins de 50 ans», les 15-24 ans, les 15-34 ans, les femmes en général, etc. Il y a souvent une contradiction entre vouloir être le plus puissant possible et le plus performant possible sur des cibles particulières. C'est un peu la quadrature du cercle. On regarde d'abord et avant tout les résultats sur les cibles publicitaires puisque c'est là on l'on fait la recette. Mais on sait que si on veut faire une télévision ciblée, on perdra sur les deux tableaux: on perdra sur la puissance et un jour, sur les cibles visées, parce que ce sont des cibles très mal définies. Qu'est ce qu'une «ménagère de moins de 50 ans»? C'est à la fois une assistante de direction d'une agence de publicité à Paris, qui a 26 ans, pas d'enfant, et une femme d'agriculteur de 48 ans ayant quatre enfants, habitant dans le massif central. Entre ces deux spectatrices, il y a d'énormes différences. J'ai déjà résumé ainsi cette hétérogénéité de la catégorie par cette boutade: «J'ai souvent fait mon marché, j'ai jamais rencontré une ménagère de moins de 50 ans. » Cela n'existe pas, c'est une abstraction. Aucune femme ne se vit comme une ménagère de moins de 50 ans. Et on peut multiplier les exemples, c'est la même chose avec les « CSP Plus »2 où l'on trouve aussi bien un contremaître d'une usine de Sandouville qu'un professeur d'université, qui peuvent avoir des modes de vie, des pratiques culturelles assez différentes. Ces cibles sont extrêmement hétérogènes et l'idée de dire «je vais faire un programme pour les ménagères de moins de 50 ans ou pour les CSP Plus» est absurde. Il est impossible d'élaborer, de concevoir un programme pour ces catégories. On ne peut fonctionner que par cercles concentriques: essayer de rejoindre le maximum de personnes et, du même coup, de toucher les cibles visées. Concernant la définition des cibles, il y a incontestablement un conservatisme de l'ensemble de la profession. Dans une société qui a beaucoup changé, dans ses comportements, ses pratiques, on a une fixité des cibles qui pose problème. Par exemple, le 110

HERMÈS 37, 2003


La loi d'airain du médiamat

fait qu'on vit plus longtemps, qu'on ait des enfants plus tard, pourrait amener à considérer que la cible des moins de 50 ans n'est plus pertinente et y intégrer les moins de 55 ou de 60 ans. Mais c'est très compliqué de mettre toute la profession d'accord là-dessus. Le problème aussi, c'est que si on veut des cibles homogènes, on va descendre à un niveau de spécialisation tel qu'il n'y aura plus 25 cibles mais 350 et ce ne sera plus viable. On peut d'ailleurs se poser la question si le ciblage par âge, par sexe, par catégorie socio-professionnelle ou par habitat est le bon découpage de la population. En matière de programmation télévisuelle, ce n'est pas évident. Les cibles correspondent aux catégories de population auquel un annonceur s'intéresse. Celui qui vend des produits d'alimentation ou d'entretien dans les supermarchés est intéressé par les foyers où il y a beaucoup d'enfants, où l'on consomme beaucoup de yaourts, de biscuits et de produits d'entretiens. C'est assez grossier, assez rustique. Mais une trop grande sophistication serait inutile. Il faut bien comprendre que ce sont des outils d'aide à la décision des publicitaires et qu'il n'y a pas la recherche d'une représentation absolument exacte de la société française. Quels que soient les biais qui existent, la mesure d'audience télévision est celle qui mesure le plus finement les comportements des individus, si on compare avec celle de la radio, de la presse magazine. Ce qui n'empêche pas de la contester, de s'interroger sur la pertinence des cibles, sur le comportement des panélistes. Ce qui n'empêche pas de rêver à une mesure totalement passive où il n'y aurait plus l'obligation du bouton-poussoir. On l'améliore déjà en faisant évoluer le panel pour suivre l'augmentation du nombre des foyers qui reçoivent l'offre élargie, par câble ou satellite. En même temps, l'instrument doit garder une certaine stabilité pour permettre la comparaison. La courbe que l'on obtient avec le médiamat, qui mesure seconde après seconde l'écoute de chaque chaîne, est d'une certaine manière abstraite, artificielle, puisqu'elle prend en compte des départs et des arrivées. Un chiffre moyen de 10 millions de téléspectateurs, c'est beaucoup plus complexe que cela paraît, c'est le produit de ceux qui sont arrivés, restés et partis. C'est une moyenne des audiences instantanées, c'est-à-dire une totale abstraction. J'en reviens toujours au malheureux qui s'est noyé dans la rivière qui faisant 0, 80 mètre de profondeur moyenne mais qui est tombé sur un endroit où il y avait 3 mètres de fond. La somme des données fournies par le médiamat est considérable, avec la courbe détaillée sur 24 cibles. On est loin de les utiliser toutes. On fait un focus détaillé sur les mouvements d'audience quand on a une nouvelle émission, ou une émission qui commence à avoir de moins bons résultats, ou quand un nouveau programme arrive chez le concurrent, ce n'est pas un instrument que l'on utilise de manière permanente et exhaustive. Quand vous voyez la batterie de chiffres qui sont disponibles, tout ce que je peux savoir sur le public des Veux de l'amour3 (chiffres par cibles, historique, etc. ), la somme colossale d'informations, c'est totalement inutilisable. On l'utilise de façon assez rustique. C'est HERMÈS 37, 2003

111


Entretien avec Etienne Mougeotte

seulement quand on cherche quelque chose, quand on voudra travailler sur les Feux de l'amour, dont l'audience est déclinante, on pourra essayer de comprendre ce qui s'est passé depuis deux ans, sur les femmes, sur les femmes de moins de 50 ans. Et là, on a un outil statistique monstrueusement sophistiqué. On fait aussi des études qualitatives sur les nouvelles émissions, sur les animateurs, sur les publics. Et on utilise aussi ce qui est disponible sur le marché, comme les études du Crédoc4. Quand une étude confirme ce que vous pensez, c'est rassurant. C'est utile pour saisir des climats, des tendances un peu lourdes, mais cela s'arrête là. Cela ne détermine pas ce qu'il convient de faire. Il y a un équilibre entre un certain nombre d'informations qu'on recueille et ensuite, l'intuition, le produit de l'expérience. C'est un mélange de tout ça. C'est quand même très artisanal. Question: Est-ce qu'un des problèmes essentiels de TFl n'est pas le renouvellement de la grille ? Ayant une forte obligation de résultat, n'êtes-vous pas contraints à minimiser la prise de risque, ce qui est contradictoire avec l'innovation ? Il n'y a aucun renouvellement possible sans prise de risque. Si on ne prend pas de risque, on ne change rien, et donc on meurt. Mais là, la mesure d'audience est d'une faible utilité; elle permet de voir ce qui a bien (ou mal) fonctionné dans la dernière période, chez nous, chez les autres; elle aide à se former un jugement. Mais cela ne va pas au-delà, cela n'aide pas à concevoir quelque chose. Par contre, elle est décisive pour mesurer le degré d'usure d'une émission, pour retracer l'historique, et notamment pour voir les tendances lourdes. Il y a une règle: quand la descente arrive, elle est d'abord régulière puis ensuite elle s'accélère. La difficulté est toujours de savoir à quel moment il faut arrêter. Il faut bien savoir que quand on arrête une émission, on mécontente tous ceux qui la regardent encore avec plaisir. La décision d'arrêter une émission qui est là depuis longtemps, mais qui perd de l'audience, est une décision lourde, difficile. Je ne sais jamais si ce que je vais mettre va mieux marcher et si je ne vais pas cumuler deux inconvénients, perdre ceux qui regardaient la précédente et ne pas plaire à ceux qui sont ailleurs ou avaient cessé de regarder. Il y a trois jours, Pierre Palmade est venu me voir pour me proposer une idée d'un programme qu'il appelle Ma mère est une femme, où il jouerait son propre rôle et Sylvie Joly celui de sa mère, en petits sketches de 3/4 minutes. J'ai trouvé cette idée très intéressante, mais je lui ai demandé de plutôt essayer de travailler dans l'hypothèse d'une sitcom de 26 minutes. Un gars, une fille. Caméra café5 marchent très bien, mais ce n'est pas ce que je cherche, parce que j'aurais un programme d'un coût élevé qui ne remplacerait pas un autre programme et qui représenterait une dépense supplémentaire. Si on parvient à un produit de 26 mn, cela va coûter plus cher, mais si on réussit, ce sera plus rentable en recettes, en image, en innovation. J'espère que Palmade va réussir, il a incontestablement le talent pour le faire, après il faut tenir 112

HERMÈS 37, 2003


La loi d'airain du médiamat

sur la durée, il a tellement de cordes à son arc (théâtre, etc. ), il est très sollicité. Et le succès repose sur lui. On ne peut pas se dire qu'on va démarrer avec lui, mais qu'il peut partir au bout d'un moment. On n'arrivera pas à le faire sans Palmade, on a besoin de lui. Question: Dans un mouvement général de diversification des recettes, avec des émissions comme Loft Story sur M6 ou Star Academy chez vous, qui génèrent des recettes extrapublicitaires, peut-on imaginer qu'un jour on puisse programmer une émission pour d'autres considérations socio-économiques que son résultat d'audience ? Je me suis fixé la règle, en tout cas aujourd'hui, selon laquelle toute émission qui est mise à l'antenne a pour vocation première, et absolument prioritaire, d'obtenir un résultat d'audience et donc, une recette de publicité. Que, par ailleurs, cette émission par sa nature permette de faire des recettes supplémentaires (téléphone6, disques, droits dérivés divers), très bien, je prends, cela fait de la marge supplémentaire. Mais je pense que le jour où on déciderait de mettre à l'antenne une émission, d'abord pour les recettes supplémentaires engendrées, on prendrait un risque absolument monstrueux. C'est une de mes responsabilités de toujours dire: «Ne faisons jamais un programme en considérant qu'il va produire des recettes diversifiées. » Cela n'empêche pas d'avoir la préoccupation de ce type de recettes, mais sans que cela prenne la priorité. Si on inverse la priorité, on met le doigt dans un engrenage fatal, et même suicidaire. Question: Quand on regarde l'audience des matchs de football de la Ligue des champions, on voit bien que vous avez un problème. En même temps, vous êtes tenu par un contrat pluri-annuel N'est-ce pas un dilemme ? L'enjeu est double. Il y a d'abord le statut de la chaîne, qui fait qu'on n'abandonne pas comme ça la Ligue des champions, qui partirait alors sur une chaîne concurrente. Même si les résultats d'audience sont décevants depuis deux ou trois ans, ce n'est pas souhaitable. Ensuite, on est aujourd'hui dans le creux de la vague, mais rien ne nous dit que, dans un an ou deux, Lyon ou Marseille, ou même le PSG, n'aura pas une grande équipe européenne et, tout-à-coup, cela ferait des audiences formidables. Quand on conjugue ces deux arguments, et quand on ajoute que la Ligue des champions va changer de formule l'année prochaine, avoir une formule beaucoup plus attrayante, cela nous amène à vouloir négocier pour la garder. Mais c'est très cher, c'est trop cher par rapport à la recette, et donc on est prêt à essayer de la garder à condition de la payer moins cher. C'est l'objet de la négociation actuelle. On a réussi pour la Formule 1, on a diminué le prix de moitié; là aussi, il faut qu'on parvienne à 30 ou 4 0 % de baisse, je ne suis pas sûr qu'on y arrivera. On ne peut pas abandonner un produit comme ça, à cause du statut de la chaîne. HERMÈS 37, 2003

113


Entretien avec Etienne Mougeotte

On peut faire le parallèle avec le cinéma, où on sait bien qu'il y a seulement 40 ou 50 films qui peuvent réaliser des audiences fortes. Au prime time, on commence à diminuer le nombre de films, en deçà du quota des 104. Certains mardis, on programme une émission de variétés à la place du film de cinéma. On est touché par l'usure du film français, dès lors qu'il faut programmer 60 % de films français (théoriquement européens). C'est la limite des obligations. La règle des 60/407, c'est très bien, mais les films français s'usent beaucoup plus vite. Question: Comment se redéfinit une grande chaîne généraliste au moment où se développe le paysage de complément ? À partir du moment où il y a une offre de plus en plus importante de chaînes thématiques ou ciblées, il faut que nous gardions le plus possible notre vocation de chaîne généraliste. La spécificité d'une chaîne généraliste c'est la place importante accordée au direct et à l'événement. L'information garde une part importante sur la chaîne. Cela nous incite aussi à créer ou retransmettre le plus possible d'événements, à faire une télévision interactive, nous distinguant des chaînes qui sont un peu des robinets à images. Il y a deux manières de considérer la fiction: elle peut être très événementielle, mais c'est relativement rare et très cher, et puis elle est identitaire de la chaîne comme Julie Lescaut, Navarro, Cordier (L'Instit pour France 2). Ce serait d'ailleurs un problème de retrouver un jour Navarro ou Julie Lescaut en 5 e diffusion sur une chaîne du câble. L'identification de ces héros à TF1 pourrait alors se dissoudre. On est dans la position du leader, qui défend bec et ongles son leadership, même si les conditions du marché évoluent et que ce leadership ne sera pas tout à fait le même dans quelques années. Mon objectif, ma volonté, ma posture, c'est une posture de leader. Il peut être plus difficile de faire 3 0 % de part d'audience aujourd'hui, dans l'univers de concurrence actuel, que 38 % il y a dix ans quand il n'y avait pas d'offre élargie. Et dans quelques années, il sera peut-être tout aussi difficile de faire 25 % comme le font environ la BBC ou ITV aujourd'hui.

NOTES 1. L'émission de divertissement Les Niouzes, animée par Laurent RUQUIER, a été diffusée du lundi 28 août au vendredi 1er septembre 1995, à 19h20. Sa part d'audience sur les téléspectateurs de 4 ans et plus est passée de 23, 1 % le lundi à 17, 4 % le vendredi, à comparer avec la part d'audience globale de la chaîne qui était de 37, 3 % sur l'année 1995.

114

HERMÈS 37, 2003


La loi d'airain du médiamat

2.

CSP Plus: regroupement des catégories socio-professionnelles supérieures, comprenant celle des artisans, commerçants et chefs d'entreprise, celle des cadres et professions intellectuelles supérieures et celle des professions intermédiaires, selon la nomenclature de l'INSEE.

3.

Les Feux de l'amour: feuilleton nord-américain diffusé tous les jours de semaine sur TF1 à 14h 10.

4.

Crédoc: Centre de recherche pour l'étude et l'observation des conditions de vie.

5.

Un Gars, une fille et Caméra café sont des sitcoms (comédies de situation) d'un format nouveau (épisodes de 6/7 minutes), la première programmée vers 19h50 sur France 2 (depuis octobre 1999), et la seconde sur M6 vers 20 h 45 (depuis septembre 2001).

6.

Les appels téléphoniques et SMS générés par certaines émissions comme Loft Story ou Star Academy, surtaxés, donnent lieu à un partage des recettes entre l'opérateur téléphonique France Télécom, la chaîne et le producteur.

7.

Les œuvres cinématographiques diffusées par les chaînes de télévision doivent pour 6 0 % minimum être originaires d'États membres de la CEE et pour 4 0 % minimum être d'expression originale française (EOF). Étant donnée la faiblesse de la production des autres pays européens, cette règle revient pour les chaînes à respecter un quota de presque 60 % de films français. Il existe par ailleurs un plafonnement du nombre de films diffusés, avec notamment un maximum de 104 films diffusés entre 20h30 et 22h30.

HERMÈS 37, 2003

115


Entretien avec Jean-Pierre Cottet France 3

IL N'Y A PAS DE SERVICE PUBLIC SANS PUBLIC Propos recueillis par Régine Chaniac et Jean-Pierre Jézéquel le 19 février 2003. Question: Vous avez été successivement directeur de l'antenne et des programmes de France 3 (à partir de fin 1993), directeur général en charge de l'antenne de France 2 (juin 1996) et, depuis septembre 2000, vous dirigez France 5. Cela vous donne un parcours unique en matière de télévision publique. A travers cette expérience de trois chaînes publiques bien différentes, comment dessineriez-vous le lien entre mesure d'audience et décisions de programme ? Votre question est au centre de la complexité du service public. Elle est souvent posée avec l'a priori pessimiste que qualité des programmes et force de l'audience s'excluent. En fait, je la formulerais ainsi: «Est-ce que l'Etat actionnaire est préoccupé par la mesure d'audience? Est-ce que les conseils d'administration sont préoccupés par le résultat quantitatif des programmes de la télévision publique, soucieux du rendement social de l'investissement?» Et je répondrais oui. Au fil des années, je n'ai pas connu de tutelle qui ne fasse pas attention aux scores d'audience. Les tutelles publiques attendent de nous que nous obtenions les meilleurs résultats quantitatifs et qualitatifs, eu égard à l'importance des investissements publics dans le secteur. Cette décision n'est pas laissée au libre-arbitre des directeurs des antennes. Il apparaît naturel que le gouvernement et les élus, principaux responsables des chaînes publiques, représentants des citoyens, exigent de ces entreprises qu'elles soient socialement rentables et, donc, que les programmes soient vus par le plus HERMÈS 37, 2003

117


Entretien avec Jean-Pierre Cottet

grand nombre. Il n'y a pas de service public sans public. C'est une pression qui n'est pas violente mais, quand l'audience d'une chaîne publique chute de manière sensible, les premiers à s'en préoccuper, et légitimement, sont les tutelles et l'opinion publique. L'audience est un critère important et il y a même une fierté des salariés de ces entreprises à afficher de bons résultats: c'est la reconnaissance de ceux pour qui nous travaillons. Les chaînes sont utiles quand elles font éclore les talents et l'importance du service se mesure par la fréquentation. Question: Etant donnée cette préoccupation de toucher le public le plus large possible, qu'est-ce qui différencie une chaîne publique d'une chaîne commerciale ? Les objectifs de l'Etat sont exprimés de façon explicite, à travers des cahiers des missions et des charges qui sont la colonne vertébrale des chaînes publiques. Dans le dispositif de régulation, s'est ajouté aujourd'hui un outil supplémentaire qui est le Contrat d'Objectifs et de Moyens, plus précis dans les résultats à atteindre. La responsabilité des patrons des chaînes les conduit à une lecture attentive de ces textes qui laissent une part importante d'initiatives et d'interprétations. Ce ne sont pas des diktats. Ils communiquent un état d'esprit, une ligne éditoriale, à charge pour les responsables des chaînes de s'en imprégner et de concevoir grilles et programmes. Ils sont en général le produit d'une concertation, parfois d'une négociation entre les dirigeants des chaînes publiques et les services de l'Etat qui représentent les tutelles. Ces textes traduisent le point de vue des élus sur le rôle de la télévision publique. Il peut être fait reproche à une émission ou à une autre de ne pas refléter fidèlement l'esprit du texte mais globalement les grilles sont la mise en musique de la partition juridique. Les orientations de la 2, de la 3 et de la 5 sont complémentaires et on ne peut comprendre le paysage audiovisuel public ou les choix éditoriaux de chaque chaîne publique que si on considère la cohérence du tout. Les trois chaînes de France Télévisions et Arte sont les pièces d'un même puzzle. Chacune doit occuper sa place et il ne faut pas attendre de l'une ce que doit faire l'autre. On ne peut donc exiger les mêmes résultats d'audience de chaînes dont les rôles sont parfois aussi différents, mais aucune n'est exonérée du résultat optimal. Je crois que les résultats d'audience parfois très modestes de certains programmes ne sont acceptables que parce que les émissions du groupe public réunissent tous les jours 4 0 % des téléspectateurs. Cette consommation de masse est essentielle à la bonne santé du secteur public. En bref, pour construire les grilles, les responsables des chaînes publiques doivent coller aux missions qui leur sont confiées, concevoir des programmes en complémentarité avec ceux des autres chaînes publiques et, sur ces bases, rechercher la plus forte audience. Le directeur de l'antenne est l'exécutant plus ou moins talentueux d'une volonté collective. 118

HERMÈS 37, 2003


Il n'y a pas de service public sans public

Question: A travers tout ce que vous dites, il apparaît que ce n'est pas le résultat d'audience qui vous permet de choisir, d'arrêter telle émission, d'en essayer telle autre. Et en même temps, vous insistez sur l'importance du résultat d'audience. N'y a-t-il pas là un paradoxe ? Je crois que ce métier est beaucoup plus difficile à exercer dans le public que dans le privé. On gère des paradoxes. Il faut savoir faire danser l'eau avec le feu. L'audience est une récompense, être vu par le plus grand nombre procure un sentiment de jubilation. La programmation est un acte généreux, attentif aux autres. Il faut offrir. On ne peut pas penser à la place du public, je déteste les formules qui donnent à croire que le public serait une masse grégaire aux réactions répétitives et prévisibles et qu'un programmateur serait la pythonisse électronique destinée à guider les décisions. Les entreprises en général, et en particulier les entreprises de communication, pour s'épanouir, doivent produire du sens. La gestion et la programmation peuvent souffrir des mêmes symptômes, une sorte d'insuffisance respiratoire. Les ficelles, les trucs, les astuces de programmation ne conduisent pas bien loin. Une grille besogneuse, roublarde ou pusillanime évite parfois le pire, mais ne provoque pas le meilleur. Certains programmes sont caricaturaux, c'est l'addition de pièges à audience; elle est parfois au rendez-vous, mais ces émissions sont comme les malheureux clones de brebis, elles ne vivent pas longtemps. En contrepartie de ce refus des recettes, il faut savoir digérer l'échec pour avoir le courage de faire. C'est un métier de prise de risque et on ne peut pas rechercher l'audience a priori sous peine de la faire fuir, le racolage passe rarement la rampe. Si une grille doit être au service d'un projet ambitieux et lisible, elle nécessite aussi des petits gestes régulateurs, des mesures de réajustements, des adaptations faites dans la précipitation, une sorte de travail de marqueterie pour la finesse du geste et de plombier en cas de fuite. Par exemple, sur France 3 début 1994, nous avons bien sûr d'abord lu les textes qui fixent la règle du jeu mais nous avons aussi pris en compte l'existence d'un important outil technique de production et pour définir la relation particulière de la chaîne avec le public, nous avons énoncé un couple de mots qui a ensuite fait florès: la proximité et la curiosité. Dans son rôle d'accompagnement et de proximité culturelle et géographique, France 3 devait en effet développer une relation douce avec le public avec des liens affectifs forts. Il apparaissait évident que des émissions tapageuses, comme l'élection de Miss France ou La Classe, ne correspondaient pas à l'identité de la chaîne. Nous les avons arrêtées malgré les inquiétudes de l'entourage qui craignait la disparition de ces deux gisements d'audience. Si Miss France s'était trouvée sur France 2, j'aurais peut-être agi différemment, mais ce n'était pas la couleur de France 3. En ce qui concerne La Classe, nous n'avions rien sous la main HERMÈS 37, 2003

119


Entretien avec Jean-Pierre Cottet

pour remplacer l'émission. Nous avons donc programmé un dessin animé, pendant une demi-saison. Il a obtenu un faible résultat. L'auditoire de ce type de programme est étroit pour cet horaire. Mais le succès d'estime a compensé le problème d'audience. En effet, nous avons remplacé une émission encore robuste en audience par une offre unique pour les enfants. Ceux qui jouent aux échecs savent que le gambit, quand il marche, est une manœuvre jubilaire. Dans le même mouvement, nous avons lancé Un Siècle d'Écrivains, c'est-à-dire une série documentaire de 260 épisodes d'une heure sur 5 ans. Nous pensions que, pour promouvoir la lecture, il fallait faire aimer les écrivains et qu'en montrant la vie, on pourrait faire aimer les livres. C'était une utopie un peu provocatrice, mais j'avoue que nous avions un espoir sur le résultat de la programmation. Hélas, certains écrivains ont bien marché, beaucoup non. Mais quel beau symbole pour France 3, la grande chaîne du documentaire ambitieux ! Nous avons aussi massivement renforcé l'offre de programmes pour la jeunesse, spécialement à destination des tout-petits, ce qui a contribué à encore améliorer la qualité de l'offre de la chaîne et, bien évidemment, à rajeunir son public. La question de la fiction était aussi essentielle. France 3 n'apportait alors que des investissements complémentaires. Il fallait qu'elle se fasse entendre, qu'elle ait sa propre ligne de production. Nous avons donc annoncé que nous allions produire moins, mais que nous produirions mieux. Les syndicats de producteurs ont accepté la proposition. Au lieu d'émietter nos financements en seconde voire troisième position sur des téléfilms dont la ligne éditoriale était conçue ailleurs, nous avons décidé d'investir avec plus de discernement, en limitant le nombre de films financés et en donnant l'argent suffisant pour impulser de nouveaux projets et permettre aux producteurs d'exercer leur savoir-faire dans de meilleures conditions. Nous pouvions ainsi faire des choix et imposer nos orientations. Comme France 3 dispose d'équipes de tournage en régions, nous avons imaginé une nouvelle ligne de développement qui rassemblait nos préoccupations économiques et éditoriales: «la fiction de terroir». Pas de flics, pas de gyrophares, mais des héros provinciaux de la vie civile, dans les campagnes et les petites villes..., le succès a été tel qu'aujourd'hui c'est devenu un running gag ! La grille de France 3 était un peu hypotonique, il fallait lui donner des couleurs et des contrastes. On a fait aussi un travail d'horloger, une besogne d'artisan, en prenant des décisions parfois sans grand prestige mais néanmoins efficaces sur le plan de la gestion comme, par exemple, l'installation de deux Derrick le dimanche soir. La série européenne a permis, à moindres frais, de doubler l'audience du dimanche soir et à la chaîne d'exister face aux films de TFl et France 2. En renforçant l'image, la qualité des programmes, en veillant à contrôler l'évolution des coûts de grille et en affirmant la personnalité de France 3, nous avons, en 2 ans, provoqué la plus forte progression de son histoire, en passant de 14, 6 % de part d'audience à 17, 7 %. Le résultat quantitatif a récompensé la volonté qualitative. 120

HERMÈS 37, 2003


Il n'y a pas de service public sans public

Une chaîne n'est pas un terrain vierge et ne se soumet pas à tous les projets. Elle est corsetée dans un cadre légal, elle repose sur un gisement de public, elle dispose de structures techniques spécifiques et ses équipes forment une personnalité collective. En bref, une chaîne a une histoire qu'il faut connaître, aimer et respecter pour permettre un changement sans déperdition. Il faut de l'humilité et une capacité d'écoute et d'enthousiasme. La marge de manœuvre est essentiellement déterminée par l'existant. Il n'y a pas de génies providentiels. Les dirigeants de TFl ont eu l'habileté de garder la chaîne, une fois privatisée, sur le gisement de la télévision publique. Ils ont su positionner la, chaîne commerciale en valorisant son image précédente. D'ailleurs l'origine du malaise de la société française à l'égard de France 2, est en partie liée à ce trouble schizoide que jette TFl, privée-publique, dans le paysage national. Pour France 2 aussi, la mission est claire. Il m'arrive de dire en plaisantant que la télévision a deux fonctions essentielles: vider et remplir la tête. Il y a mille façons de purger et remplir qui vont de l'élégant au crapuleux. Mais faire oublier, c'est un joli rôle, un beau métier, c'est la fonction extatique de la télévision. Aider à faire voyager dans la tête, à oublier les soucis, les tracas, à rire et à s'émouvoir. C'est tout le projet du spectacle. La télévision publique a un rôle essentiel dans le domaine de la distraction, elle ne doit pas être confinée aux missions de service ou aux tâches d'apprentissage. Elle ne peut être cantonnée à des fonctions subsidiaires, à faire ce que le privé ne souhaite pas faire car il estime que certains types de programmes ne sont pas rentables. Le divertissement, pour le plus grand bénéfice des téléspectateurs, doit être soumis à la concurrence privé/public. C'est aussi dans cet affrontement que la télévision publique doit manifester le plus de personnalité, d'inventivité et d'audace et c'est là que le métier public est le plus dur à exercer car c'est là aussi que l'image est la plus floue et les critiques les plus violentes. Il y a beaucoup à faire et il faut encourager la prise de risque et accepter l'échec ou la transgression. Je suis convaincu qu'il n'y a pas de création sans transgression ni iconoclasme, sans au moins bousculer les habitudes, les idées acquises. France 2 remplit la tête quand elle nourrit l'opinion par les magazines, les débats ou les rendez-vous d'information, elle divertit aussi, elle nourrit l'émotion et les rêves: L'Instit, Napoléon, etc. J'ai un jour entendu Umberto Ecco dire: «La télévision cultive ceux qui ont un métier abrutissant, tant pis si elle abrutit ceux qui ont un métier cultivant. » J'adhère sans nuance à ce propos. J'ai été privé du confort des résultats de France 3 et parachuté à France 2 en juillet 1996, à la demande du nouveau Président, dans une situation de crise car la chaîne était en conflit avec ses animateurs producteurs. Il a fallu bâtir la grille dans des conditions acrobatiques et faire en 6 semaines ce qui se fait d'habitude en un an. C'était de la chirurgie de champs de bataille, je crois que nous avons préservé l'essentiel mais je n'ai connu à France 2 que le temps de la cicatrisation. HERMÈS 37, 2003

121


Entretien avec Jean-Pierre Cottet

Pour rester dans la métaphore médicale, il faut rappeler que c'est dans ces conditions que nous avons programmé Urgences pour la première fois en première partie de soirée, il y a maintenant 7 ans et ça dure encore aujourd'hui ! Les meilleures décisions sont parfois celles qui n'ont pas le temps de mûrir. D'ailleurs, à France 2 nous avons essentiellement travaillé sur la place de la fiction. Notre équipe a pris des initiatives qui ont eu des bonheurs différents. Par exemple, la programmation du Grand Bâtre le dimanche soir à la place du film a été un échec et a fait couler un peu d'encre et des flots de salive. Je revendique par contre la victoire des 52 minutes. Le succès d'Urgences a contribué à me convaincre de l'intérêt de produire des 52 minutes pour la soirée, ce que ne faisait aucune chaîne française. Nous avons dû lutter contre toutes les résistances, à l'extérieur comme à l'intérieur de la chaîne, pour imposer ces nouveaux formats d'une heure. Je ne pensais pas qu'une initiative qui m'apparaissait évidente puisse susciter de telles passions. Pourtant, il était flagrant que la seule façon de donner de la force aux fictions françaises dans ce format était de leur attribuer les moyens financiers accordés aux oeuvres de premières parties de soirée. Jusque-là, les séries d'une heure n'étaient programmées qu'aux alentours de 18 heures et ne jouissaient que du maigre budget alloué à ces tranches horaires. La qualité de création s'en ressentait forcément. Il fallait donc avoir le courage de limiter les formats de 90 ou 100 minutes hérités du cinéma pour recomposer des premières parties de soirée plus souples basées sur des formats d'une heure. Aujourd'hui, ces séries sont un des points forts de la grille de France 2, le public y est plus jeune et plus important que sur les autres types de fiction. J'ai appris, ces jours-ci, que les autres chaînes notamment privées s'étaient maintenant lancées dans l'aventure du 52 minutes de «prime time». C'est une bonne nouvelle pour l'industrie française des programmes. En effet, de telles décisions peuvent apparaître secondaires, mais elles ont pourtant des conséquences économiques et culturelles très importantes. Grâce à ce chantier ouvert par France 2, les auteurs, les producteurs, les comédiens français ont pu révéler leur compétence et nos séries longues en format d'une heure partent à l'exportation. L'étape suivante aurait été la programmation à 20h50 de séries courtes (26 minutes). Il faut aussi donner aux sitcoms les moyens financiers qui permettent de faire appel aux comédiens, aux réalisateurs les plus talentueux. La fiction a besoin de temps pour être conçue, pour être tournée. Il faut pouvoir assumer le coût de l'expérimentation, des essais, des pilotes, et favoriser l'émergence de nouveaux talents. Je crois qu'il faut pour ça se rapprocher du monde du théâtre. Une telle politique de création nécessite une forte capacité d'investissement. Seuls les budgets de la première partie de soirée et l'importance du public à ces heures permettent de soutenir le poids de l'effort. 122

HERMÈS 37, 2003


Il n'y a pas de service public sans public

Je n'ai pas pu franchir les obstacles et vaincre les résistances, je n'ai peut-être pas été assez convaincant, j'ai un peu manqué de temps. La rotation des dirigeants des chaînes publiques est un facteur d'affaiblissement. Les savoirs ne s'élaborent pas et ne se transmettent pas. Ce sont des entreprises un peu amnésiques. Le successeur s'empresse souvent d'effacer les traces du prédécesseur. Je demeure persuadé que la télévision doit faire de la télévision, notamment en matière de fiction. Il est urgent qu'elle arrête de singer le cinéma. Que chacun fasse son métier et tout ira mieux. L'énergie principale de la télévision est dans «le direct» et dans le «à suivre». C'est une force qui permet le pire et le meilleur. C'est d'un côté Loft Story, une poignée de jeunes gens dont on suit l'ennui, en direct, et d'un autre côté 24 heures Chrono, Friends, Un gars, une fille... Il est agaçant que les principales références de formats courts soient encore américaines ou australiennes ou des formats exportés et revisités en France. Pendant l'été 1997, nous avons programmé trois épisodes de Friends en première partie de soirée. Nous avions envoyé une équipe aux Etats-Unis pour suivre les tournages et nous avions, alors, consacré une soirée complète à la série. Le résultat était prometteur. Je regrette de ne pas avoir pu poursuivre ce type d'expérience avec des talents français. Les créateurs fourmillent d'idées, mais, pour leur donner corps, il faut faire de la place dans les grilles et le plus difficile est souvent de savoir, ou pouvoir, arrêter une émission existante. Cette difficulté conduit parfois à un immobilisme délétère. Les tensions économiques ou égotiques sont parfois tellement violentes que la tentation de ne pas bouger est permanente. Il faut aussi témoigner du respect à l'égard de ceux qui font ces métiers fragiles et dont l'avenir dépend de la décision de la chaîne de faire ou pas une émission. La vitalité des grilles et de la création est donc liée au courage du programmateur, à sa capacité à résister aux pressions, à rompre avec les habitudes, les émissions trop longtemps installées et les contrats répétitifs. C'est un métier dur, très dur. Une grille qui marche bien est un piège potentiel. La trop longue stabilité provoque paradoxalement des effondrements d'image et d'audience brutaux. Le dosage du renouvellement est un art qui doit conjuguer intuitions et audace. En ce sens les directeurs d'antenne sont aussi des créatifs qu'il faut agiter ! On est rarement intelligent tout seul, la gestion d'une grille est un travail collectif, un échange et un mélange de sensibilité. À France 3, tous ces problèmes sont démultipliés car nous ne disposons que d'une demi-chaîne. Les questions d'arrêt et de création de nouveaux programmes sont rapidement insolubles. Question: Vous raisonnez beaucoup en termes de cibles et, pourtant, la télévision n'(estelle pas un média grand public qui cible peu ? HERMÈS 37, 2003

123


Entretien avec Jean-Pierre Cottet

Derrière ce terme un peu militaire, il y a un problème sociologique réel, c'est le déséquilibre des populations jeunes dans les structures d'audience de la télévision publique. Il semblerait que la volonté de donner du contenu aux programmes fasse fuir les plus jeunes. Je crois en effet que si on n'y prend garde, la culture agit comme un filtre, comme un système de codage. Dès que le niveau culturel d'un programme s'élève, l'âge de l'auditoire augmente ! Ceux qui regardent sont ceux qui ont les clés de décodage. C'est un vrai problème politique. Le grand œuvre en matière de télévision publique, c'est la résolution de l'équation qui permettra d'attirer les jeunes et les jeunes adultes avec des émissions de contenu. C'est notre travail, essayer de partager du savoir. La notion de cible n'est que l'expression de la prise en compte de cet écart entre jeunes et moins jeunes. C'est une ligne de démarcation préoccupante. Si on souhaite que la télévision publique contribue à nourrir les liens sociaux et favorise la vie collective, notamment entre les générations, il faut que toutes les tranches d'âges soient représentées devant nos écrans et ce n'est surtout pas en niant la mesure de cette réalité qu'on règlera le problème. La tentation est toujours forte de casser les thermomètres quand ils révèlent les dysfonctionnements. Notre équipe a plutôt tendance à multiplier les indicateurs pour surveiller l'évolution du phénomène et le traiter efficacement. Doit-on renoncer à rajeunir l'audience ? Certains sont irrités par la démarche et n'y voient qu'un jeunisme un peu névrotique, d'autres pensent que la télévision est un média vieillissant, qu'il faut l'admettre, que les jeunes ont autre chose à faire, que les seniors nés du baby-boom sont puissants et riches et qu'ils sont le public captif de la télévision traditionnelle. Est-ce que cette télévision n'a pas été faite par eux et finalement pour eux ? C'est-à-dire pour les gens stabilisés, mieux intégrés socialement ? Ainsi la télévision serait un cercle nostalgique. Les plus âgés reviennent y voir des choses qu'ils savent, qu'ils ont vécues, dont ils viennent vérifier l'importance. C'est le bonheur de revenir sur la vie avec un angle différent, un recul, une explication. La suite du grand feuilleton individuel et interactif de l'existence. La question mérite d'être posée, mais le propos ne nous convainc pas. Nous essayons donc d'endiguer la tendance. Comment rajeunir une antenne sans bêtifier ? Nous ne sommes pas contraints au pire. Il y a des pistes. Par exemple sur France 5 on essaie de produire des documentaires pédagogiques, réactifs, peu importe le style ! Ce qui importe, c'est que ce soit généreux, lisible, avec un contenu linéaire qui permette d'expliquer. Je préfère un document maladroit, mais fort en contenu et lisible, qu'un document esthétique et hermétique. La recherche formelle est tout à fait honorable, mais ce n'est pas la priorité. La démarche est toute différente. Comment faire pour amener devant des programmes, qui apportent un petit quelque chose à la vie de tous les jours, des gens dont on peut penser qu'ils y ont intérêt ? Une autre réponse à ce problème est de ne plus travailler sur un seul écran, placer la télévision au centre d'un système de réseaux (Internet, SMS, etc. ), avec toutes les 124

HERMÈS 37, 2003


Il n'y a pas de service public sans public

déclinaisons possibles. Permettre le partage de la parole, le détournement du système. Ainsi on est en train de concevoir un studio interactif relié à des réseaux ADSL, et à des ordinateurs équipés de Webcams. Le premier noyau composé d'une centaine d'ordinateurs, appelé Le club, doit servir de masse critique au centre d'un réseau qui, sans cesse, est appelé à s'élargir. On peut aussi offrir des services ciblés, veiller à faire une télévision utile à ceux dont on souhaite attirer l'attention. Commençons par être attentif à leurs besoins, on peut ensuite imaginer qu'ils seront attentifs à nous. C'est ainsi que nous avons conçu les Maternelles, magazine diffusé le matin, pendant une heure et demie, à l'heure où les femmes sont présentes, parfois un peu socialement isolées, du fait de leur statut, de leur grossesse ou de leur maternité. On parle des règles d'hygiène, de nutrition, du développement de l'enfant, de l'école, des lois, de la vie de couple, etc. Nous abordons des sujets graves, tendres, simples ou complexes et il y a beaucoup de femmes jeunes qui regardent, qui se relaient, il y a un phénomène de boucheà-oreille, les sujets sont repris sur Internet, avec des bibliographies, avec les bonnes adresses. Cela a créé un petit mouvement qui contribue à féminiser le public de France 5. Il m'arrive de penser que le rajeunissement est un corollaire de la féminisation. La télévision est d'autant plus regardée qu'elle véhicule des valeurs féminines. La télévision est une femme. Je ne sais pas encore pourquoi mais j'en suis convaincu. Nous avons mille idées comme cela, pour peu qu'il y ait un peu d'espace, d'argent, d'envie de faire et c'est le cas à France 5. Pour les chaînes du service public aussi, le vieillissement de l'auditoire peut avoir des conséquences sur la commercialisation des espaces publicitaires, et donc sur les recettes. France 3 est un peu en dehors de ces batailles, mais tous les responsables des chaînes doivent garder un œil sur ces indicateurs utilisés par le monde de la publicité. L'audience et la recette publicitaire arrivent quand on a bien fait son travail. Là aussi il y a une hiérarchie du mouvement. Question: Feut-on imaginer qu'à terme, France 5 devienne un lieu d'innovation pour les deux autres ? Lorsque La Cinquième a été intégrée au groupe France Télévisions, le président l'a qualifiée de chaîne laboratoire. J'en accepte le terme et la liberté qui va avec, mais je ne crois pas que l'on puisse contribuer au renouvellement des programmes de nos deux aînées. Ce que nous faisons n'a de sens que pour cette chaîne. Tout au plus, certaines de nos idées pourront peut-être être exploitées en étant transposées ailleurs. Mais cela restera marginal. Comme je le disais en préambule de notre entretien, chaque chaîne a son territoire et ses objectifs. Nous sommes bien en étant côte à côte. HERMÈS 37, 2003

125


Éríc Macé Centre d'analyse et d'intervention

sociologiques (Cadis), EHESS, CNRS Université Paris III, Sorbonne nouvelle

LE CONFORMISME PROVISOIRE DE LA PROGRAMMATION Dès lors que la culture n'est pas produite par une institution en situation de monopole et de pouvoir mais à travers les mécanismes du marché, le principal problème qui se pose est de savoir ce qui intéresse les gens, ou, tout du moins, de savoir comment les intéresser. S'agissant de la télévision généraliste, le débat oppose classiquement les défenseurs et les dénonciateurs de «l'audimat», c'est-à-dire de l'introduction des mesures d'audience dans les choix de programmation. D'un côté, l'audimat serait une entrave à la créativité des professionnels et l'expression d'une «tyrannie de la majorité» sur la diversité des attentes de publics eux-mêmes divers. D'un autre côté, l'audimat permettrait de remettre le public réel de la télévision (plutôt familial, populaire et féminin) et ses goûts au centre d'une programmation jusque-là monopolisée par les prétentions «populicultrices» de professionnels et de «non-publics» (mais prescripteurs de bon goût culturel) de la télévision. L'objet de cet article est de montrer que l'audimat n'est pas la chose dont parlent à la fois ceux qui le défendent et ceux qui le critiquent: d'un côté il ne représente pas le public et ses goûts, d'un autre côté il n'est pas le facteur central et déterminant de la programmation. Il est, bien au contraire, une des médiations parmi d'autres qui font de la culture de masse l'expression d'un conformisme instable, lui-même à la fois nécessairement l'objet d'une critique sociale généralisé et objet sociologique passionnante

HERMES 37, 2003

127


Éric Macé

L'audience n'est pas le public L'audience n'est pas une «chose» qu'il s'agirait d'engranger, ni un «public» réel qu'il suffirait de compter, elle est un construit qui désigne à la fois un processus relationnel complexe entre les individus et la télévision, et la traduction simplifiée, standardisée et abstraite de cette relation. Si on se place du point de vue de «l'audience» mesurée par «l'audimat», il est tout à fait juste d'en parler comme d'un opérateur de marché. En effet, à la différence des autres industries, les chaînes de télévision ne vendent pas leurs produits aux consommateurs, mais vendent leurs consommateurs aux annonceurs publicitaires, en proportion des «parts de marché» que chaque chaîne occupe dans le partage de l'audience totale de la télévision. Ceci étant, les mesures d'audience permettent-elles de savoir ce qui intéresse les gens qui regardent la télévision afin de mieux organiser, voire de mieux «programmer» la réception ? Rien n'est moins sûr, et il apparaît rapidement que si «l'audience» est un étalon de transaction efficace sur le marché de l'industrie de la communication, elle est une source d'information très approximative sur les modes de réception de la télévision. Comme nous allons le montrer, le rapport entre «l'audience», telle qu'elle est construite par le système médiatique, et les pratiques sociales « réelles » de la télévision est aussi lâche que le rapport entre le cours en Bourse des titres d'une entreprise et la «réalité» matérielle, organisationnelle et humaine de cette entreprise2. Ce n'est pas ici la représentativité et la fiabilité de la mesure qui est en cause: on ne connaît pas de pratique sociale qui soit autant mesurée, et dans les règles de l'art statistique, que l'usage de la télévision. Cependant, pour les programmateurs, les indicateurs d'audience ainsi collectés ne rendent pas nécessairement compte des «goûts» du public. D'abord parce que l'audimat ne rend pas compte d'une «demande» d'émissions de télévision, mais de préférences (sans qu'on sache si elles sont positives ou par défaut) au sein d'une offre nécessairement limitée. Ce ne sont pas ainsi les «goûts» qui sont mesurés par les «parts d'audience», mais la rencontre à un moment donné entre un volume limité d'offre d'émissions, et les formes variables de disponibilité sociales et mentales des individus du panel Médiamétrie qui se trouvent avoir leur poste allumé à ce moment précis. On peut ainsi regarder des «bêtises» ou «s'autoriser à être con» sans que cela engage en quoi que ce soit l'expression de «goûts» personnels, mais tout simplement parce qu'à ce moment précis la télévision est la seule activité désirable en raison précisément de la licence et du «relâchement» de l'esprit et des corps qu'elle accorde3. Bien souvent en effet, la télévision est allumée sans être regardée, comme une radio (télévision de compagnie, automatisme matinal), regardée en faisant autre chose (tâches domestiques, repas) ou bien regardée sans intérêt pour ses contenus propres, mais parce qu'elle permet de «décompresser» et de se 128

HERMÈS 37, 2003


Le conformisme provisoire de la programmation

«relâcher» de retour du travail ou de l'école (quitte à s'endormir devant), d'échapper à la vie familiale (ses mésententes, son ennui) ou à toutes contraintes {zapping en continu). Ceci relativise radicalement l'idée d'une télévision regardée de façon attentive telle qu'elle est implicitement contenue dans les indicateurs « d'audience» et les critiques qui lui sont faites: ainsi, loin d'être ce «bon public» formé de téléspectateurs civiques et rationnels, ou bien ce public «zombie» fasciné par l'écran, le public de la télévision est un «mauvais public» tout à la fois distrait, distant, lunatique, passionné, indifférent, critique, et inscrit dans un contexte domestique, conjugal et familial complexe qui interfère en permanence avec le poste, les émissions et le choix des programmes (souvent issu d'un compromis au sein du foyer, ce qui fait que bien souvent une part de «l'audience» ne fait «qu'accompagner» l'autre part ayant eu - provisoirement - gain de cause)4. Par ailleurs, «l'audience» d'une émission n'est pas nécessairement liée à son contenu propre, mais à la chaîne qui la diffuse. C'est ainsi qu'un film diffusé sur une chaîne dominante aura généralement l'audience moyenne des films diffusés sur cette chaîne, tandis que le même film diffusé sur une chaîne outsider aura l'audience moyenne des films diffusés sur cette chaîne. De même, lorsqu'en 1987 la chaîne privée «La 5» a débauché des animateurs de TFl et leurs concepts d'émission, l'audience de ces mêmes émissions s'est ajustée à la baisse sur celle de «La 5» 5 . Cet «effet chaîne» est lié pour l'essentiel aux stratégies de fidélisation des chaînes dominantes, qui offrent plus que des émissions, mais la continuité d'une relation avec le «public» parfois établie depuis des dizaines d'années. De plus, les indicateurs utilisés par les industries culturelles sont trompeurs. Le «taux d'audience» annoncé est un taux moyen qui confond les personnes qui ont regardé l'émission en entier ou presque, et ceux qui n'ont fait que «zapper» quelques secondes ou quelques minutes, qui sont partis avant la fin ou arrivés en cours de route. Autrement dit, tout comme les parts d'audience ne mesurent pas les «goûts» du public, les taux d'audience ne renvoient pas à des publics « réels » mais à des agrégats statistiques masquant une grande mobilité des téléspectateurs face à l'offre disponible d'émissions6.

L'audimat n'est pas la «loi d'airain» de la programmation C'est la raison pour laquelle l'analyse de la place de l'audimat dans les stratégies de programmation doit distinguer ce qui ressort d'une logique de «marché» et ce qui ressort d'une logique culturelle. À l'évidence, «l'audimat» est un élément central de la dimension commerciale de la télévision, mais ces indicateurs, on l'a vu, ont peu à voir avec les «vrais gens»: en d'autres termes, «l'audience» n'est pas le «public»7. C'est d'ailleurs bien la raison HERMÈS 37, 2003

129


Éric Macé

pour laquelle, concernant les transactions sur le marché publicitaire, l'exactitude du «référent» que seraient les véritables pratiques sociales et les représentations culturelles du «public» importe moins que l'efficacité conventionnelle de l'unité de mesure et de ses fluctuations. C'est parce que «ça marche», indépendamment de l'arbitraire et des biais de la mesure, que l'ensemble de la mécanique commerciale de l'économie publicitaire se satisfait d'un indicateur simple et unique, et que toutes les tentatives d'introduction de la complexité ou de double mesure ont été repoussées par les acteurs dominants de ce marché8. Les données a posteriori de l'audimat n'ont ainsi qu'une faible valeur prédictive. D'autant plus que les décisions de programme se font le plus souvent plusieurs mois à l'avance en raison des délais de production, de sorte que les facteurs qui font qu'une émission a «marché» dans un contexte de diffusion précis (dynamique de la chaîne, offre de la concurrence, événements sociétaux) ne sont en général plus les mêmes entre le moment de sa conception et le moment de sa diffusion. Les données de «l'audimat» n'ont par ailleurs qu'une relative valeur de sanction. D'abord parce que la baisse d'audience d'une émission peut être liée à la baisse d'audience générale de la chaîne ou à la baisse d'audience de l'émission précédente. Ensuite parce qu'une bonne ou une moins bonne audience est toujours rapportée à l'image globale de la chaîne: la bonne audience persistante d'une émission faisant l'objet de critiques telles que l'image globale de la chaîne en pâtisse peut ne pas la protéger d'une déprogrammation ou d'une non-reconduction; tout comme l'audience plutôt confidentielle d'une émission peut ne pas avoir d'incidence sur un choix de programmation considéré comme avantageux pour l'image de marque de la chaîne ou d'un de ses animateurs-vedette. De la sorte, la sanction de l'audimat peut d'abord être analysée dans les termes d'une sociologie des organisations. «L'audience» est alors pour les dirigeants de la télévision un indicateur «objectif» permettant de maîtriser les négociations avec les professionnels de la télévision dès lors qu'il y a litige ou redéfinition des objectifs. L'audimat apparaît ainsi comme un facteur peu déterminant des logiques de programmation dont le processus se situe en amont de ce qui n'est que la mesure de l'échec ou du succès des stratégies développées par les programmateurs de chaque chaîne.

La programmation de la télévision est un conformisme provisoire Le problème des industries culturelles est qu'elles sont confrontées, plus que les autres, à un système de contraintes et de tensions9. Des tensions liées tout d'abord à l'instabilité de la production de la culture de masse, première forme de culture collective produite non par une 130

HERMÈS 37, 2003


Le conformisme provisoire de la programmation

institution mais à travers l'opérateur par nature instable qu'est le marché. Par ailleurs, la prétention de la culture de masse à s'adresser au plus grand nombre l'expose à devoir prendre en compte la diversité des populations et des publics hétérogènes qui constituent le «grand public». Enfin, dernier élément de tension, l'incertitude dans laquelle les professionnels des industries culturelles se trouvent concernant le succès de produits coûteux dans un régime de concurrence élevé entre diffuseurs10. Les industries culturelles sont ainsi confrontées à une situation paradoxale où, comme le souligne Edgar Morin, «le standard bénéficie du succès passé» et où «l'original est le gage de succès nouveau», tandis que dans le même temps «le déjà connu risque de lasser» et «le nouveau risque déplaire»11. C'est d'ailleurs cette instabilité de sa production qui fait de la culture de masse l'objet d'une critique sociale permanente et généralisée (et cette critique est d'autant plus forte et partagée qu'elle concerne le média de masse le plus central: aujourd'hui la télévision, hier le cinéma et la radio): s'adressant structurellement au plus grand nombre, elle ne satisfait nécessairement personne en particulier. Si on considère ainsi l'audience de la télévision, non comme une «donnée» mais comme une «obtenue» des stratégies de programmation, on aborde alors l'extrême complexité des relations entre la télévision et les individus. Car si l'audimat est bien cet indicateur de l'audience produite, la production de cette audience n'est quant à elle pas si simple: il faut pour cela non seulement que les gens regardent la télévision en général, mais surtout qu'ils regardent telle chaîne plutôt que celles de la concurrence, et c'est bien là le problème12. C'est pourquoi la production de l'audience renvoie à «l'art de la rencontre» qu'est la programmation de la télévision13: il s'agit pour chaque chaîne de télévision d'organiser la rencontre entre «l'offre» de ses programmes et les individus en fonction de leurs disponibilités sociales et de leur réceptivité culturelle, afin d'obtenir, à force de familiarité et de « rendez-vous », une fidélisation satisfaisante des individus. Cet «art de la rencontre» qu'est la programmation recouvre classiquement deux dimensions relatives à la disponibilité et à la réceptivité des individus. La première, que je ne développe pas ici, est la disponibilité temporelle, qui renvoie à la construction d'une «grille» de programmes ajustée au «métabolisme» socio-temporel des individus (tel que l'indique les taux d'audience, c'est-à-dire la mesure des personnes qui ont pour activité de regarder la télévision, quelque soit la chaîne) selon leur âge, leur sexe, leur activité, leur lieu de résidence. Mais cette définition temporelle de la programmation n'est pas suffisante car elle néglige ce qui fait le cœur de la programmation: une construction culturelle et symbolique de la relation entre la télévision et les individus, où la télévision parle simultanément du monde et d'elle-même comme médiatrice entre ce monde et son public. En effet, même si tous les individus sont dorénavant des téléspectateurs en puissance, la télévision n'est pas regardée par tous uniformément et indistinctement. Parce qu'elle est un média de masse gratuitement offert (en apparence), la télévision est un média populaire, HERMÈS 37, 2003

131


Éric Macé

c'est-à-dire dont la majorité du public reflète la majorité de la population globale qu'est cette «classe moyenne modeste» composée des ménages d'ouvriers et d'employés faiblement diplômés. Outre cet effet mécanique de démographie sociale, l'analyse de la structure de l'audience de la télévision (toutes chaînes confondues) montre que ces populations «modestes» sont sur-représentées parmi le «public» de la télévision. On observe ainsi que la moitié des téléspectateurs consomment à eux seuls les trois quarts de l'offre de télévision, et que cette moitié a un profil encore plus populaire que la majorité du public de télévision: moins diplômés, plus âgés, moins actifs14. Mais si le partage entre «grands» et «petits» consommateurs de télévision trace une frontière socioculturelle, cela ne signifie pas que les «grands» consommateurs de télévision ne regardent que les émissions à forte audience et que les «petits» consommateurs ne regardent que des émissions «confidentielles»: c'est même le contraire puisque, d'une part la structure de consommation des «petits» est la même que celle des «grands» (c'est-à-dire d'abord des films, du divertissement et de l'information «grand public»), d'autre part le public populaire est toujours majoritaire même pour les émissions les plus « confidentielles » (dites «culturelles»)15. Par ailleurs, une forte consommation de télévision expose à la routine, voire à la lassitude, et conduit à développer une importante « culture télé » maîtrisant l'offre globale de programmes, ainsi qu'à diversifier les canaux et les contenus {via les équipements techniques et les abonnements ad hoc). De la sorte, si tout le monde la regarde, la télévision est d'abord faite pour ceux qui la regardent vraiment, c'est-à-dire le public populaire, celui de Télé 7 jours et de Télé Ζ plutôt que celui de Télérama ou du supplément du Monde16. C'est pourquoi l'observation montre que la relation complexe qui s'établit entre «l'offre» de programme de télévision et la «réceptivité» des individus se fonde moins sur l'audimat que sur des «théories» du social et du rôle de médiation de la télévision, théories développées par les programmateurs de chaque chaîne de télévision, qui tentent ainsi de définir «ce qui intéresse les gens»: «les Français sont plus soucieux d'environnement»; « nous passons de l'époque du strass à celle du stress »; « il existe un vieux fond gaulois de la culture française»; «la télé-réalité, répond au besoin d'authenticité»... etc. L'objectif étant de rassembler le plus de personnes autour de l'offre de programme proposée, la programmation est ainsi avant tout le «pari» que telle offre télévisuelle rencontre une sensibilité commune virtuelle au sein du public. Pour réduire les risques de chacun de ces « paris » et pour fonder ces « théories », les programmateurs de télévision rassemblent de nombreuses données les informant des tendances socioculturelles générales et des tendances de consommation télévisuelle: articles de presse, études marketing qualitatives, données socioculturelles quantitatives, enquêtes sociologiques, succès d'outsiders dans l'édition, le cinéma, la télévision (dans le pays ou à l'étranger), «ratissage» de l'ensemble des autres médias de masse (presse, radio, Internet), 132

HERMÈS 37, 2003


Le conformisme provisoire de la programmation

sensibilités et sociabilités personnelles des responsables de programmation, mémoire des programmations précédentes, stratégies des autres chaînes, logiques propres à la chaîne, en un «mix marketing-doigt mouillé» dont parle Etienne Mougeotte, directeur des programmes de TF1 17 . De nombreuses «théories» sur les «besoins», les «demandes» et les « attentes » des individus vis-à-vis de la télévision, compte tenu de leur expérience sociale et des «tendances» socioculturelles, sont ainsi élaborées, qui justifient par la suite le choix de telle série, la commande de telle thématique déclinée dans les téléfilms ou les débats, le «concept» de telle nouvelle émission... etc. 18 Or que sont ces «théories» sinon l'écho, au fond, des débats en cours au sein de l'espace public politique et médiatique ? Il est en effet possible, ainsi que cela a été fait à de nombreuses reprises par les cultural studies, de montrer les échos télévisuels des controverses idéologiques, des luttes politiques et des conflits de représentations concernant des questions aussi majeures que les rapports sociaux de sexe, de classe et d'ethnicité ou concernant les sensibilités diverses touchant aux questions éthiques et écologiques. C'est pourquoi il me semble que la télévision a moins à voir avec le débat sur la qualité de la «culture» (populaire vs cultivée, de masse vs d'élite, commerciale vs artistique, marchande vs citoyenne) qu'avec celui des enjeux politiques des représentations du monde construits par les diverses médiations culturelles et politiques, y compris la médiation médiatique qu'est celle de la télévision. De la sorte, ce qui commande la programmation de la télévision, c'est ce qui apparaît aux programmateurs comme étant commun, légitime et recevable pour la plupart à un moment donné. C'est pourquoi la programmation de la télévision ne peut être ni tout à fait progressiste, ni tout à fait conservatrice: elle est fondamentalement et nécessairement conformiste, mais d'un conformisme provisoire et réversible en fonction des modes, de plus ou moins grande stabilisation idéologique et institutionnelle, des compromis issus des conflits symboliques et politiques entre acteurs sociaux. Ainsi, modulé selon les «genres» télévisuels (avec les stéréotypes et les ambivalences propres à chaque «conventions narratives» de chacun de ces genres: informations, débats, jeux, fictions, talk-shows... etc. 19) d'un média à public populaire et selon l'amplitude des contraintes commerciales d'un consensus plus ou moins large (variable selon le mode de financement de la chaîne et l'heure de programmation), ce nécessaire conformisme instable (car bien plus sujet à la réversibilité que les compromis inscrits dans la loi et les institutions) de la programmation de la télévision est tout ce qui lui donne sa valeur d'objet d'étude sociologique: analyser les contenus de la télévision comme les produits faiblement stabilisés des conflits de définition concernant le monde dans lequel nous vivons, c'est accéder à la manière dont chaque société nationale, à un moment donné, se représente elle-même, à travers ses compromis provisoires et contestés, ses idéaux, ses non-dits, ses stéréotypes, ses normativités et ses mythes20. HERMÈS 37, 2003

133


Éric Macé

NOTES 1.

Je développe ici une partie des analyses présentées dans Eric MACÉ, «Qu'est-ce qu'une sociologie de la télévision?», Réseaux, n° 104, 2000.

2.

Sabine CHALVON-DEMERSAY, «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni, n° 35, 1998.

3.

Véronique LE GOAZIOU, «Le corps des téléspectateurs», Réseaux, n° 92-93, 1999.

4.

James LULL, Inside Family Vieving, Londres, Routledge, 1990; D. GAUNTLETT, A. HILL, TV Living, Londres, Routledge, 1999; Josiane JOUET, Dominique PASQUIER «Les jeunes et la culture de l'écran», Réseaux, n° 9293, 1999.

5.

Rapporté dans Eve CHAMARD, Alain KIEFFER, La Télé. Dix ans d'histoires secrètes, Paris, Flammarion, 1992, p. 459.

6.

Sabine CHALVON-DEMERSAY, Paul-André ROSENTAL, «Une démographie des comportements volatils?», Quaderni, n° 35, 1998.

7.

Ien ANG, Living Room Wars, Londres, Routledge, 1996.

8.

Dominique PASQUIER, «Une télévision sur mesure», Réseaux, n° 39, 1990.

9.

Éric MACÉ, «Éléments d'une sociologie contemporaine de la culture de masse», Hermès, n° 31, 2001.

10. Comme le souligne David HESMONDHALG, The Cultural Industries, Londres, Sage, 2002, p. 19, citant des producteurs qui décrivent de façon imagée leur méthode pour compenser les risques des « paris » que sont chaque lancement de nouveau produit de la culture de masse: il s'agit de «balancer la sauce sur le mur et attendre de voir ce qui reste collé» (throwing mug against the wall and seing what stiks). 11. Edgar MORIN, L'Esprit du temps, 1, Névrose, Paris, Grasset, 1975, p. 35. 12. D'où le titre de Ien ANG, Desperately Seeking the Audience, Londres, Routledge, 1991. 13. Michel SOUCHON, «Les programmateurs et leurs représentations du public», Réseaux, n° 39, 1990. 14. Michel SOUCHON, «L'apport des méthodes quantitatives à la connaissance du public de la télévision», Hermès, n° 11-12, 1993. 15. Nathalie COSTE-CERDAN, Alain LE DIBERDER, La Télévision, Paris, La Découverte, 1986, p. 73. 16. Éric MACÉ, «La télévision du pauvre», Hermès, n° 11-12, 1993. 17. Cité par P. PEAN, C. NICK, op. cit., p. 478. 18. Todd GITLIN, Inside Prime Time, Berkeley, University of California Press, 1983. 19. François JOST, «La promesse des genres», Réseaux, n° 81, 1997. 20. Eric MACÉ, «Sociologie de la culture de masse: avatars du social et vertigo de la méthode», Cahiers internationaux de sociologie, vol. CXII, 2002.

134

HERMES 37, 2003


Le conformisme provisoire de la programmation

RÉFÉRENCES

BIBLIOGRAPHIQUES

ANG, I., Desperately Seeking the Audience, Londres, Routledge, 1991. ANG, L, Living Room Wars. Rethinking Media Audiences for a Postmodern World, Londres, Routledge, 1996. CHALVON-DEMERSAY, S., «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni, n° 35, 1998. CHALVON-DEMERSAY, S., ROSENTAL, P-A., «Une démographie des comportements volatils? L'émergence de la micro-analyse dans la mesure de l'audience», Quaderni, n° 35, 1998. CHAMARD, Ε., KIEFFER, Α., La Télé. Dix ans d'histoires secrètes, Paris, Flammarion, 1992. COSTE-CERDAN, N., LE DIBERDER, Α., La Télévision, Paris, La Découverte, 1986. Eco, U., La Guerre du faux, Paris, Grasset, 1985. GAUNTLETT, D., HILL, Α., TV Living, Londres, Routledge, 1999. GITLIN, T., Inside Prime Time, Berkeley, University of California Press, 1983. HESMONDHALG, D., The Cultural Industries, Londres, Sage, 2002. JOST, F., «La promesse des genres», Réseaux, n° 81, 1997. JOUET, J., PASQUIER, D., «Les jeunes et la culture de l'écran», Réseaux, n° 92-93, 1999. LE GOAZIOU, V., «Le corps des téléspectateurs», Réseaux, n° 92-93, 1999. LULL, J., Inside Family Vieving. Ethnographic Research on Television's Audience, Londres, Routledge, 1990. MACÉ, Ε., «La télévision du pauvre. Sociologie du public participant», Hermès, n° 11-12, 1993. MACÉ, Ε., «Qu'est-ce qu'une sociologie de la télévision? », Réseaux, n° 104, 2000. MACÉ, Ε., «Éléments d'une sociologie contemporaine de la culture de masse. À partir d'une relecture de l'Esprit du temps d'Edgar Morin», Hermès, n° 31, 2001. MACÉ, Ε., «Sociologie de la culture de masse: avatars du social et vertigo de la méthode», Cahiers internationaux de sociologie, vol. CXII, 2002. MORIN, E., L'Esprit du temps, 1, Névrose, Paris, Grasset, 1975. MORLEY, D., Family Television: Cultural Power and Domestic Leisure, Londres, Comedia, 1986. PASQUIER, D., «Une télévision sur mesure: les données d'audience dans le système américain», Réseaux, n° 39, 1990. PEANT, P., NICK, C , TF1, un pouvoir, Paris, Fayard, 1997. SOUCHON, M., «Les programmateurs et leurs représentations du public», Réseaux, n° 39, 1990. SOUCHON, M., «L'apport des méthodes quantitatives à la connaissance du public de la télévision», Hermès, n° 1112, 1993.

HERMÈS 37, 2003

135


Patrick Champagne Institut national de la recherche agronomique (Inra) Centre de sociologie européenne (EHESS)

L'AUDIMÉTRIE: UNE CENSURE POLITIQUE CACHÉE Texte, remanié et revu, à partir de «La loi des grands nombres», Actes de la recherche en sciences sociales, mars 1994, n° 101-102, pages 17-19

Ce n'est pas un hasard si, très vite après l'instauration de la mesure d'audience par le dispositif dit de «l'audimat», certains journalistes de télévision ont été amenés à parler de la «dictature de l'audimat» qui, selon eux, pèserait désormais sur les programmes. La métaphore politique, en raison même du succès qu'elle a immédiatement remporté, doit être prise au sérieux car, contrairement à ce qui a été très largement perçu à l'époque, l'instauration de ce système de mesure de l'audience en continu, inspiré par et pour les publicitaires, loin de signifier la fin de la censure politique sur l'audiovisuel et sur l'information, a marqué en fait une politisation accrue quoique masquée. Il est, en effet, très superficiel de penser que l'audimat aurait marqué l'avènement du téléspectateurconsommateur pouvant désormais choisir librement de regarder ce qu'il souhaite regarder. Cette vision, qui semble faire du marché économique l'arbitre des choix en matière de programmation, occulte le fait que la mise en place de l'audimat, en 1982, qui s'inscrivait dans une transformation qui était déjà largement engagée a cependant marqué une rupture majeure dans le fonctionnement même du média télévision. La logique économique qui a progressivement investi ce média et la concurrence pour l'audience entre les chaînes HERMÈS 37, 2003

137


Patrick Champagne

généralistes, loin de favoriser une diversification de l'offre de programmes afin de satisfaire la diversité des demandes d'un public lui-même très divers socialement et culturellement ont conduit, à l'inverse, à une uniformisation de l'offre, chaque chaîne cherchant à chaque instant, pour des raisons économiques, à rassembler un maximum de gens, c'est-à-dire le seul public populaire. Tout se passe comme si les programmes étaient soumis au vote majoritaire, comme en démocratie, seuls ceux qui recueillent une majorité de suffrages dûment mesurée par l'audimat ayant désormais droit de cité sur les écrans. L'audimat n'est pas seulement un instrument qui mesure l'audience. Il est aussi la concrétisation matérielle d'une philosophie politique qui implique une certaine représentation du public de télévision, celle-ci étant parfaitement homologue de celle qui s'est instaurée au même moment en politique avec la généralisation de la pratique des sondages d'opinion. Ce n'est d'ailleurs pas un hasard si cette mesure de l'audience qui n'a rien à voir, techniquement, avec les sondages d'opinion est cependant confondue avec cette pratique. C'est que la vision politique de la télévision qu'elle implique n'est pas sans évoquer celle qui, durant la même période, a affecté le métier d'homme politique à mesure que la politique était médiatisée et passait de plus en plus par les sondages d'opinion. Ce que la pratique des sondages ou de l'audimat impose, c'est un nouveau principe de légitimité universel fondé sur l'audience majoritaire ou maximum, sur l'approbation populaire, sur l'applaudimètre (la présence d'un public qui, dans les émissions, applaudit sur commande en permanence n'est sans doute pas sans lien avec cette logique politique). La rapidité croissante des techniques de mesure qui permet de disposer presque instantanément des résultats a eu, sur la télévision, des effets analogues à ceux que l'on a pu constater en politique avec les sondages1. Depuis 1967, la télévision s'était dotée d'un panel postal qui lui permettait de connaître, sans doute de manière encore très approximative, l'audience des émissions. Mais les résultats n'étaient disponibles qu'une semaine au moins après le passage à l'antenne et étaient destinés aux seuls responsables. Cette enquête permanente de l'ORTF était en effet à usage interne, les résultats, considérés comme hautement «confidentiels», n'en étant pas communiqués aux publicitaires et même aux chercheurs comme s'il s'agissait de préserver une certaine autonomie de la télévision, s'agissant de décider de ce qui est bon ou non pour les téléspectateurs. La vocation de la télévision, telle que l'Etat l'avait décrétée, n'était-elle pas, selon la formule maintes fois invoquée par les responsables de la télévision qui voulaient par là marquer la spécificité de la télévision publique «à la française» par rapport aux télévisions commerciales étrangères (notamment la télévision américaine, qui jouait le rôle de véritable repoussoir), «d'informer, d'éduquer et de distraire»? Quant aux publicitaires, ils n'étaient pas intéressés par ces enquêtes parce que les spots de publicité étaient, au moins initialement, limités en nombre, en emplacements. Ils avaient leur propre enquête, réalisée par le Centre des études des supports de publicité (CESP)2, qui suffisait à leurs demandes. Toutes ces enquêtes, celles de l'ORTF comme celles des publicitaires, 138

HERMÈS 31, 2003


L'audimétrie: une censure politique cachée

avaient en commun d'être un regard sur les audiences passées (plus exactement sur les comportements déclarés). La multiplication des écrans de publicité, le fait qu'ils s'insèrent progressivement avant et après toutes les émissions, la négociation avec les régies publicitaires pour fixer, pour chaque spot, un tarif qui est fonction de l'audience générée par l'émission ont conduit les publicitaires à s'intéresser aux audiences qu'ils souhaitent connaître à la fois le plus rapidement possible et le plus exactement possible. C'est eux qui veulent mettre au point un instrument de mesure qui permettra de constater le plus rapidement et le plus objectivement possible, émission par émission, minute par minute, les audiences afin de disposer d'une base indiscutable pour fixer les tarifs et pour affiner leurs stratégies de diffusion des spots (choisir en fonction des publics et des audiences). Or, l'audimat, qui est la technologie adaptée à cette attente, s'apparente à une sorte de referendum permanent sur les programmes et exerce, du même coup, un puissant effet de verdict, à la fois techniquement et politiquement parce que scientifiquement constaté et surtout parce qu'il s'agit d'un verdict «objectif» au sens de «collectif» et «anonyme» par opposition à «individuel» et à «subjectif». Les courbes d'audience sont analysées en détail tous les jours par l'ensemble des professionnels intéressés à l'économie de la télévision, qu'il s'agisse des annonceurs qui veulent rentabiliser au mieux leurs investissements publicitaires, des responsables des régies qui veulent remplir leurs écrans publicitaires, des programmateurs des chaînes qui cherchent à tout moment le programme qui rassemblera le public maximum et des producteurs qui recherchent des recettes afin de financer leurs émissions. Tous ces professionnels sont pris dans la logique de la recherche du programme «qui cartonne», «qui nique la concurrence» et savent par expérience le type d'émission qui attire ou, à l'inverse, risque de faire fuir le «grand public» (c'est-à-dire en fait le public populaire qui est le public majoritaire sur lequel se concentrent les stratégies de captation) et même, à l'intérieur de chaque émission, ce qui entraîne un relâchement de l'intérêt (tel chanteur, tel type de débat, etc. ). L'audimat conduit, comme les cotes de popularité et les sondages préélectoraux en politique, à fixer l'attention sociale moins sur les contenus que sur les courbes qui deviennent une fin en soi. S'il est vrai que le téléspectateur dispose, en regardant certains programmes, d'une sorte de droit de vote permanent étant donné l'économie générale de ce média, on ne peut que suivre Michel Souchon lorsqu'il remarque qu'il s'agit d'une sorte de droit de vote censitaire à l'envers puisque, étant donné le type de programme qui est diffusé sur la quasitotalité des chaînes, les milieux populaires qui sont de gros consommateurs de télévision, «votent» ainsi quatre à cinq fois plus que les autres milieux sociaux. Ainsi, paradoxalement, la télévision s'est en réalité politisée plus encore que par le passé lorsque le parti au pouvoir entendait contrôler étroitement les programmes, veillant directement à la «bonne moralité» des programmes. ainsi qu'aux prises de position politiques qui pouvaient s'exprimer. Le fait que le pouvoir ait dû progressivement renoncer HERMÈS 37, 2003

139


Patrick Champagne

à son rôle de censeur pointilleux n'a pas signifié le retrait du politique mais seulement l'instauration d'une forme plus démocratique de contrôle politique. En dépit du sentiment - aussi indiscutable qu'éphémère - de libération éprouvé par la plupart des journalistes de télévision qui se sont retrouvés à l'abri des pressions exercées directement par le pouvoir politique en place et qui même ont pu à leur tour s'imposer aux hommes politiques, la télévision est en réalité quasi totalement investie par la logique politique. L'absence de contraintes politiques ouvertes ne signifie pas l'absence de toutes contraintes. Les contraintes politiques ont simplement pris la forme d'impératifs économiques symbolisés entre autres par le rappel à l'ordre que représente l'affichage quotidien, dans les locaux des chaînes, des «scores» des émissions de la veille. Forme transfigurée et euphémisée du pouvoir politique, le pouvoir économique est en fait beaucoup plus efficace puisqu'il passe par les mécanismes anonymes du marché et met, dans la tête même de chaque producteur de télévision, actuel ou potentiel, comme principe régulateur et comme critère de jugement dominant qui mesure la valeur de tout programme, le nombre de téléspectateurs qui le regardent. Ceux qui ne sont pas capables de «faire de l'audience» sont d'emblée exclus, ou mieux s'excluent eux-mêmes. Aujourd'hui, c'est toute l'entreprise de production de biens culturels qui tend à être soumise à la «loi de la majorité» d'une population en fait politiquement définie. Les producteurs culturels de ces médias grand public sont placés dans une position proche de celle qu'occupent les hommes politiques, les présentateurs sollicitant en permanence les suffrages des téléspectateurs. La politisation du champ de production des biens culturels réside moins dans la décision - politique - de placer l'ensemble de la télévision dans une logique commerciale3 que dans le libéralisme économique qui impose et traduit indissociablement une vision politique du monde social qui est située aux antipodes de la logique du champ de production des biens culturels. Lire, comme on tend à le faire aujourd'hui, le jeu politique démocratique à travers les concepts de l'économie capitaliste (on parle d'«offre», de «demande» et de «marché» politiques), c'est, par une inversion faussement éclairante, encourager une naturalisation du champ politique derrière les mécanismes collectifs et anonymes de l'économie de marché sans voir que cette économie-là repose précisément sur la philosophie politique qu'elle prétend analyser4. S'il n'est donc pas faux de dire que la recherche de l'audience obéit à une logique proprement économique, il convient d'ajouter qu'elle n'est si bien acceptée par ceux qui font les programmes que parce qu'elle s'accorde plus ou moins inconsciemment avec une vision politique implicite, c'est-à-dire avec une représentation politique du public: la télévision est globalement perçue comme instrument de « démocratisation » qui doit donc «démocratiquement» plaire au plus grand nombre possible de téléspectateurs, cette représentation étant de surcroît en affinité avec le fonctionnement économique de ce média. Comme le livre ou le cinéma, la télévision n'est en soi qu'un moyen de diffusion qui aurait 140

HERMÈS 37, 2003


L'audimétrie: une censure politique cachée

pu faire l'objet d'usages sociaux beaucoup plus diversifiés. Si la logique de l'audience maximum a investi l'instrument dans sa quasi-totalité c'est entre autre parce que l'État s'est en partie économiquement désengagé de cette entreprise coûteuse5. L'instauration, par décision politique, d'une chaîne à visée culturelle comme La Sept, convertie depuis septembre 1992 en Arte constitue à cet égard une véritable expérimentation sociale qui permet de voir les propriétés spécifiques de cet espace public singulier que les usages sociaux de la télévision ont construit. Le zapping, qui peut être pratiqué par l'ensemble des téléspectateurs, peut mettre momentanément en présence des émissions un public qui ne dispose pas du capital culturel nécessaire pour se les approprier. Le discours élitiste des intellectuels qui fustigent la télévision «abêtissante», celle des jeux, des sitcoms, des feuilletons et de la télé-réalité, fait couple avec les réactions de dérision et de rejet (sous forme de plaisanteries rituelles dissimulant à peine un anti-intellectualisme rampant) qu'une chaîne comme Arte suscite en permanence, notamment de la part de ceux qui peuvent s'exprimer dans les grands médias ou qui y travaillent. Ces réactions de rejet réciproques ne font que traduire l'inadéquation, qui peut s'instaurer dans les sociétés socialement et culturellement différenciées, entre un public et un bien culturel. Au-delà des fausses alternatives («culture de masse» contre «ghetto culturel»), la transformation sans doute la plus importante que la télévision a engendrée est l'affaiblissement de la coupure entre la culture savante et la culture de grande consommation. La publication quasi quotidienne, dans la presse, des scores réalisés par les émissions contribue à faire tomber les frontières entre les genres, mélangeant dans un même palmarès qui privilégie l'audience numérique instantanée, les documentaires et les magazines d'information, les émissions de jeux et les émissions culturelles, etc.6 Durant la deuxième moitié du XIXe siècle, l'instauration du suffrage universel et le laisser-faire économique avaient eu des effets analogues, la logique politique exerçant déjà son action au-delà même de la politique, en particulier dans le monde de la culture qui connaissait alors, à cette époque, le développement important d'une littérature et d'une presse populaires. Flaubert, un témoin perspicace de cette transformation majeure, dénonçait déjà ce qu'il appelait la toute nouvelle « tyrannie sacerdotale » qui est exercée par le suffrage universel: « L'infaillibilité du suffrage universel, écrit-il dans une de ses lettres à Louise Collet, est prête à devenir un dogme qui va succéder à celui de l'infaillibilité du pape. La force du bras, du nombre, le respect de la foule a succédé à l'autorité du nom, au droit divin, à la suprématie de l'Esprit. »7 Les animateurs ou producteurs d'émissions populaires peuvent, plus que par le passé, et de manière plus indiscutable, invoquer comme principe de légitimité, le nombre de téléspectateurs qui les regardent et, de leur point de vue, les approuvent surtout lorsque cela se traduit matériellement par des rentrées financières importantes pour les chaînes. La raison du plus grand nombre surtout lorsqu'elle est surdéterminée économiquement, tend HERMÈS 37, 2003

141


Patrick Champagne

à s'imposer, même dans les espaces sociaux qui, historiquement, se sont constitués contre l'opinion commune ou ordinaire8, le critère de qualité intrinsèque de ce type d'émissions, qui prête nécessairement à discussion étant donnée la dispersion culturelle du public, étant remplacé comme en politique, par un critère statistique apparemment plus simple à mesurer et surtout plus en affinité avec la logique économico-politique qui a investi ces médias. Au-delà de cet univers culturel dominé par les sondages d'audience, la logique du nombre tend ainsi à devenir un principe de jugement universel: ceux qui critiquent la chaîne Arte dénoncent en réalité une certaine culture en se fondant principalement sur les indices d'audience, jugés ridiculement faibles par rapport à ceux des chaînes populaires (bien qu'ils soient en réalité très élevés par rapport aux programmes diffusés) et sur le supposé caractère abscons et ennuyeux des émissions9.

NOTES 1. Sur l'usage des sondages dans les débats politiques à la télévision, voir P. CHAMPAGNE, « Qui a gagné ? Analyse interne et analyse externe des débats politiques à la télévision», Mots, n° 20, septembre 1989, p. 5-22. 2.

Deux vagues d'enquêtes étaient réalisées chaque année auprès d'échantillons de population très importants,

3.

Plutôt que, comme c'est le cas par exemple pour la recherche fondamentale ou la musique contemporaine ou encore la radio publique par exemple, dans une logique de mécénat public.

4. J. SCHUMPETER, qui fut l'un des premiers à mettre systématiquement en relation les systèmes politique et économique, comparait de façon plus juste la logique économique de marché à la logique démocratique, l'acte d'achat étant considéré comme un vote (et non l'inverse). Voir notamment Capitalisme, socialisme, et démocratie, Paris, Payot (première édition en anglais en 1942). 5.

Cela ne signifie pas que les chaînes privées soient gratuites pour le téléspectateur: il les paie, de façon moins visible qu'avec la redevance, en tant que consommateur à travers la publicité qui est intégrée dans le prix des produits.

6.

C'est une philosophie analogue qui est au principe de tous les palmarès par sondage que font réaliser les journaux. Voir P. Bourdieu, «Le hit-parade des intellectuels français, ou qui sera juge de la légitimité des juges ?», Actes de la recherche en sciences sociales, n° 52-53, juin 1984, p. 95-100.

7.

Gustave FLAUBERT, Correspondance, II, Paris, Gallimard, Bibliothèque de la Pléiade, 1980, p. 90.

8.

Notamment le champ intellectuel. Sur ce point, voir P. BOURDIEU, Les Règles de l'art, Paris, Le Seuil, 1992.

9.

L'audimat a pour objectif de compter le nombre de gens qui sont susceptibles de voir les spots publicitaires (pour en fixer les tarifs) plus que les émissions elles-mêmes. Or, la qualité d'une émission peut la rendre rediffusable, ce qui peut faire à moyen terme une audience cumulée bien supérieure à celle des émissions très liées à l'actualité, sans grande valeur interne, qui peuvent faire en une seule fois une forte audience (la seule qui est prise en compte et publiée) mais ne sont guère rediffusables. Or, la logique économique tend à ne (re)connaître que les produits à rendement immédiat.

142

HERMÈS 37, 2003


Yves Jeanneret Université de Paris 4 Sorbonne, Ecole des hautes études en sciences de l'information et de la communication (Celsa) Laboratoire langages, logiques, informatique, communication, cognition (LaLICC), CNRS

Valérie Patrin-Leclère Université de Paris 4 Sorbonne, Ecole des hautes études en sciences de l'information et de la communication (Celsa) Laboratoire langages, logiques, informatique, communication, cognition (LaLICC), CNRS

LOFT STORY 1 OU LA CRITIQUE PRISE AU PIÈGE DE L'AUDIENCE Tout n'a-t-il pas été dit sur Loft Story? L'arrivée en France de la «télévision du réel» 1 a suscité une avalanche de commentaires: n'y avait-il pas là une rupture dans la télévision nationale, un bouleversement des règles ? Pour répondre à cette question, on peut scruter la signification sociale de l'émission, par exemple son rapport emblématique ou caricatural avec la culture des jeunes. Nous ne prendrons pas ici position dans ce débat. Notre point de vue est différent, il concerne la mise en place d'un programme télévisuel particulier, en rapport avec ses conditions d'évaluation et de succès économiques. De ce point de vue, nous ne considérons pas cette émission comme une rupture, mais comme l'aboutissement d'un système fondé sur la mesure de l'audience2, un système dont les concepteurs de Loft Story (désormais: LS) ont tiré toutes les conséquences. C'est ce qui fait de ce programme un objet d'analyse révélateur à l'égard des évolutions actuelles de la télévision. HERMÈS 37, 2003

143


Yves Jeanneret et Valérie Patrin-Leclère

La plupart des émissions de télévision sont désormais conçues de façon à maximiser le rapport entre ressources publicitaires et coût des programmes. LS, qui s'inscrit dans la continuité de cette logique use - et en l'occurrence profite - de tous les ressorts de la logique audimétrique. C'est parce qu'elle pousse cette logique à ses limites, jusqu'à modifier profondément le rapport entre le spectacle et sa critique, que l'expérience est intéressante.

Pur produit d'une logique poussée à ses limites Quand les diffuseurs parlent d'audience, ils cultivent une ambiguïté bien commode: un bon résultat d'audience serait la preuve que la chaîne a su offrir aux téléspectateurs le programme qui leur plaît, voire la garantie qu'une mission de service public a été accomplie. Argument séduisant mais trompeur. Il est plus glorieux de faire passer les résultats d'audience pour un indice de satisfaction des téléspectateurs que pour des mesures de la pression publicitaire; ce qu'ils sont en réalité, dans une logique économique qui ne s'encombre guère de quelque mission que ce soit. Dès lors qu'une chaîne de télévision dépend des revenus publicitaires, sa politique de programmation vise des consommateurs susceptibles d'intéresser les annonceurs. L'« audience »3 est un concept inventé dans ce cadre par et pour les professionnels de la publicité sur un marché dans lequel les prix dépendent du nombre et des caractéristiques socio-économiques des personnes touchées mais aussi de la capacité qu'a le média-support de prouver son aptitude à valoriser les messages. Dans cette logique, la satisfaction du public est un moyen et non une fin. Comme on va le voir, le lien entre satisfaction et audience est conjoncturel et non nécessaire. C'est à cet égard que LS offre un terrain d'analyse passionnant. En effet, c'est un produit audimétrique «parfait». Un cas d'école. Tout à la fois symbole et symptôme: symbole d'une stratégie audimétrique inédite dans son parachèvement et symptôme du régime dans lequel s'inscrivent la plupart des chaînes de télévision. Tout y est conçu pour maximiser l'audience -télévisuelle (toucher le plus de téléspectateurs possible) et l'optimiser (vendre cher l'espace publicitaire à beaucoup d'annonceurs).

Maximisation

de

l'audience

LS a permis à M6 de toucher nombre de téléspectateurs, mais aussi de les toucher à de multiples reprises au moindre coût, puisque le même programme a été décliné en plusieurs 144

HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

formats. LS a fidélisé les téléspectateurs de la chaîne hertzienne dans deux rendez-vous quotidiens4 et un rendez-vous hebdomadaire5 pendant dix semaines en 2001 et douze semaines en 2002, réalisant là un exploit sans commune mesure avec les audiences très élevées mais ponctuelles d'un film comme Titanic ou d'une finale de la Coupe du monde de football ! Les pics d'audience à plus de 10 millions de téléspectateurs, atteints aux moments les plus cruciaux, comptent moins que le taux d'audience moyen de 13, 1 % pour les onze jeudis de la saison 2001. Sans oublier qu'au quantitatif vient s'ajouter le qualitatif: la petite chaîne musicale pour jeunes a élargi l'éventail de ses cibles, empiétant sur les plates-bandes du leader généraliste TFl.

Optimisation

de l'audience

LS est le programme audimétrique par excellence. Il multiplie les coupures publicitaires et leur offre un contexte favorable (univers aseptisé et consumériste). Il présente un scénario malléable, qui a toutes les qualités requises pour servir d'écrin publicitaire aux annonceurs, ayant les avantages d'un film (suspense, captation) sans en avoir les inconvénients (la limitation à une seule coupure publicitaire, en vigueur pour la fiction)6. Grâce aux « qualités » conjointes de son audience et de ses formats, US a permis à M6 de tripler le prix de son espace publicitaire (de 11128 euros à 35368 euros, soit de 73 à 232 000 Francs, pour 30 secondes le jeudi en 2001) sans faire fuir les annonceurs et même en parvenant à en séduire de nouveaux.

Démultiplication

des

supports

M6, groupe «multimédias», a décliné son concept: TV hertzienne, TV satellite (4 canaux sur TPS), site Internet financé par la publicité [Loftstory. fr]7, magazine officiel vendu en kiosque7, etc. Beaucoup de ces supports sont payants et tous rapportent des revenus publicitaires. Il faut enfin prendre en compte ces revenus supplémentaires que sont les produits dérivés: des tee-shirts aux produits de manucure, du single9 aux recettes téléphoniques10.

Une machine centrifuge LS est donc une machine à produire de l'audience. Mais, pour ce faire, il ne suffit pas de filmer tout simplement «X célibataires dans un loft de Y m2 avec Ζ caméras 7 jours sur 7 »11. HERMÈS 37, 2003

145


Yves Jeanneret et Valérie Patrin-Leclère

Cette promesse crée l'événement; mais elle masque un dispositif très élaboré. Voir en LS une télévision introvertie, dans un espace clos, ne résiste pas à l'examen. LS n'est pas centripète mais centrifuge. La promesse (« deux heures de direct pour savoir ce qui se passe dans le Loft, ça commence tout de suite») n'est que le premier ingrédient d'un programme fait de bandes-annonces, de plateaux, de reportages, de micro-trottoirs. L'émission brasse toutes les formes du commentaire, de la reprise, de la critique. C'est logique: au pays de l'audimétrie, - et + s'additionnent. Les jugements, les postures et les valeurs les plus différents se multiplient et se croisent, des plus favorables aux plus dépréciatifs. La satisfaction et l'insatisfaction s'ajoutent, l'éloge et le blâme s'additionnent, comme s'additionnent le spectateur qui apprécie, celui qui dénigre, celui qui ironise, celui qui polémique. Pourvu qu'il regarde, chacun compte pour un. C'est pourquoi la chaîne a fabriqué un objet polymorphe, condensant tous les ingrédients de la télévision occidentale contemporaine, sans offrir l'innovation dont elle s'est pourtant prévalue. LS cumule tous les formats télévisuels: feuilleton (rendez-vous quotidiens scénarisés), sitcom (saynètes-cultes rediffusées), documentaire (sujets «pris sur le vif»), talk-show (ex-lofteurs invités sur le plateau), débat de société (discussions-débats amorcées par le psychiatre et la psychologue), jeu (votes des lofteurs et des téléspectateurs pour éliminer un concurrent), et même roman-photo (images légendées). LS reprend les trois « genres » traditionnels: fiction, information et divertissement. Enfin, LS est en parfaite adéquation avec les modes de la TV contemporaine: direct, interactivité, authenticité, dévoilement de l'intimité par l'image et par le discours. À l'arrivée, LS est donc à la fois inclassable et archétypique12. Il y a plus. L'émission est une machine de lancement et de dissémination des commentaires. Elle organise la circulation incessante entre trois pôles: le pouvoir scopique de la caméra (loft), le discours de la télévision sur elle-même (plateau) et l'influence sociale des médias (sujets tournés sur tout le territoire). D'où les paradoxes de l'intériorité et de l'extériorité: on entre dans l'univers médiatique en sortant du loft, scénario orchestré par des êtres du dedans-dehors (animateurs, psys, anciens lofteurs) et théâtralisé par une logique de sas. Ces entrées et sorties imposent une mimésis du commentaire: l'émission est un dictionnaire de conversation, un Bouvard et Pécuchet télévisuel. Tous les types d'acteurs, toutes les situations de discours, tous les thèmes discutables entrent dans le dispositif télévisuel, appareil à capturer et à rediffuser les matières à parler. Les «lofteurs» enfermés anticipent le jugement de leurs actes; libérés, ils le commentent. Le programme atteste l'existence d'une traînée de poudre communicationnelle dont il est en réalité le créateur. Enfin, le vrai casting de l'émission est celui des acteurs du dialogue social: parents, intellectuels, psys, experts (les anciens lofteurs), vrais jeunes, etc. Ce qui autorise les interventions incessantes sur le même thème: parlez-en. «Loft Story est l'occasion d'entamer 146

HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

de nouveaux débats entre amis et en famille, alors n'hésitez pas» 13 . C'est la «spirale de la parole», enserrant les lofteurs, les invités, les familles, les producteurs médiatiques, l'animateur, réactivant inlassablement le contrat énonciatif à travers annonces, génériques réitérés et détournés, relances. LS est moins un lieu de discussion qu'un espace de manipulation de l'expression, d'accumulation des postures et points de vue.

Multiplicité

des postures

du

téléspectateur

Polymorphe, l'émission s'adresse simultanément à une multiplicité de cibles. Jeunes qui adhèrent à la modernité du concept ou s'en gaussent; parents qui regardent pour voir comment vivent leurs enfants, pour voir ce que regardent leurs enfants, parce que tout le monde en parle; intellectuels qui se sentent tenus d'avoir à prendre position et qui affirment leur originalité. Aux téléspectateurs auxquels l'émission plaît (pour des motifs divers, il n'y a pas de consensus y compris dans la satisfaction) il faut ajouter ici tous les téléspectateurs auxquels elle ne plaît pas (les simples ironiques et les virulents dénonciateurs).

Multiplicité

des couvertures

événementielles

Pour permettre la prolifération des commentaires, il est nécessaire avant tout de retenir l'attention des médias d'actualité. Ainsi un simple programme télévisuel peut-il se muer en événement d'actualité. Les annonces, événements, provocations de M6 ainsi que le système des fuites et révélations progressivement distillées ont permis de capter d'emblée l'attention du journalisme d'actualité. Le ressort utilisé, c'est l'exploitation de la logique économique propre à ces médias, qui est celle de la concurrence. Le bon journaliste d'actualité se doit de parler de ce qui préoccupe les Français et de faire réagir les acteurs de la société civile sur un problème qui prend du relief. Le risque essentiel consiste donc à ne pas parler de ce dont les concurrents parlent, ou encore à en parler trop tard. On voit bien comment, pour ne pas courir ce risque, les médias se sont tous retrouvés à promouvoir un programme en événement social, ce qui libère le débat critique.

Multiplicité

des points

de vue critiques,

partisans

et surtout

opposants

Chaque téléspectateur est incité à se transformer en moteur à audience: en fonction de sa posture, chacun a un avis relativement tranché qu'il va pouvoir proférer. Cet avis est HERMÈS 37, 2003

147


Yves Jeanneret et Valérie Patrin-Leclère

pré-formaté par les concepteurs de l'émission eux-mêmes et par les « intellectuels » qui se sont empressés de mettre en mots les différents points de vue critiques adoptables («voyeurisme», «poujadisme intellectuel», «crise de la pensée», «spectacle totalitaire», «monde concentrationnaire», «monde répressif», «exhibitionnisme», «violence», «perversité»... et à l'autre pôle «modèle d'intégration», «création de lien social», «portrait collectif d'une génération», etc. ). Épiscopat, Medef14, hommes politiques, chercheurs, tous les représentants de la société française y sont allés de leur petite saillie... apportant du même coup de l'eau au moulin audimétrique et donc économique de M6.

Une nouvelle étape dans les rapports entre économie et culture Ces phénomènes sont peut-être le signe d'une tendance lourde qui ne concerne pas la seule télévision. Toute la stratégie décrite ici témoigne d'une prise en compte plus méthodique du fait qu'on est sorti du système de la critique, dans lequel le succès dépend de discours promotionnels sur les productions culturelles, pour entrer dans celui de la mesure d'audience, travail purement quantitatif sur l'exposition au média. «Faire de l'audience» est avec LS une réalité ouvertement distincte de «plaire aux téléspectateurs». L'argument habituel de la télévision commerciale («nous offrons aux téléspectateurs ce qu'ils aiment ») ne vaut plus: M6 a offert aux téléspectateurs non pas ce qu'ils aiment, mais au contraire ce que beaucoup se disaient près de détester. Autrement dit, nous avons affaire là encore à une forme aboutie de la logique économique: la chaîne offre non ce que les clients aiment mais ce que les clients regardent. On peut aller plus loin. Des Illusions perdues aux Cahiers de la Quinzaine, on a combattu pendant un siècle la «littérature industrielle», système dénoncé dans le champ artistique, philosophique, musical comme une «Foire sur la place»15. On a pu penser que le fait d'acheter ou de circonvenir les critiques afin de convaincre le public était le «stade suprême» d'une industrialisation de la culture. LS montre qu'il n'en est rien. Ce programme met en question un modèle de réussite télévisuelle. Dans le modèle «classique», il s'agissait de réunir la meilleure audience commerciale possible en proposant aux téléspectateurs un produit télévisuel qui les satisfaisait, dans le but implicite de maximiser les recettes publicitaires. Dans ce qu'on pourrait nommer le «modèle LS», on réunit la meilleure audience commerciale possible en proposant aux téléspectateurs un produit télévisuel incontournable parce qu'il fait parler de 148

HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

lui - notamment parce qu'il prête le flanc à la suspicion et à la dénonciation - dans le but à peine caché et même revendiqué de maximiser les recettes publicitaires16. Le signe le plus sûr de ce changement - qui manifeste de la part de M6 une intelligence des logiques actuelles des industries de la culture - est le statut conféré aux «bruits». Loin d'être des parasites, ils sont initiés et orchestrés par la production elle-même. Celle-ci organise des rumeurs, des scoops, des vrais-faux dérapages et trucages, etc., abondamment commentés dans la presse TV (ainsi des couvertures de Télé Star du type «Loana et JeanEdouard: vrais ou faux inconnus?» ou «Coup de foudre ou coup de bluff?») mais aussi dans la presse d'information généraliste recyclée un temps dans le scandale (Le Parisien, France Soir, Le Monde, Libération, etc. ). Le principe est simple: faire parler de LS en suscitant le doute sur la vérité de la procédure (les producteurs ne cessant de manifester leur irrespect des règles qu'ils ont eux-mêmes instituées) et en nourrissant de nombreuses polémiques (par exemple en ne payant les lofteurs que 2 euros (13 F)/heure).

La critique à contre-emploi Il faut s'arrêter sur la redistribution très particulière des rôles de l'évaluation économique (compter) et de l'évaluation culturelle (juger) dans ce système: en l'occurrence, la critique a été pleinement intégrée dans le processus de conception du programme, devenant un facteur déterminant de réussite. La critique ici n'est pas subie par les producteurs, elle n'est pas un bruit avec lequel M6 doit composer. Au contraire, le discours critique accompagne le programme comme une musique orchestrée, aussi dissonante soitelle. Elle n'est pas un contre-pouvoir qui nuirait à l'émission mais au contraire une alliée malgré elle dans la maximisation de l'audience. Citation éclairante: dans un supplément auto-promotionnel de 32 pages consacré à M6 et distribué gratuitement aux acheteurs au journal du Dimanche, le 7 avril 2002, un analyste financier se félicite du fait que «la couverture médiatique de l'événement Loft Story [ait] été telle que le chiffrage des pages, articles, émissions dédiés à Loft Story représenterait plus de 400 millions d'euros d'espaces publicitaires. Ce qui est tout de même équivalent à une année de CA du groupe (2000) ». Dans le même cahier, on trouve une revue de presse intitulée «Lofteurs up and down» dans laquelle sont repris des propos - pour la plupart négatifs, quelques-uns positifs - tenus dans la presse française au printemps 2001 par des intellectuels et des hommes politiques. La chaîne en fait une gloire: «d'entrée de jeu, fusa l'anathème»... HERMÈS 37, 2003

149


Yves Jeanneret et Valérie Patrin-Leclère

Il y a toute une production intermédiatique qui appartient pleinement au dispositif de LS. On peut citer le «guide de conversation» produit par France-Soir17, le numéro «spécial» de Libération qui reprend, sur 6 pages, les rubriques qui structurent l'émission et les types de commentaires possibles18, le sondage commandité à Sofrès par Le Monde pour comprendre pourquoi les Français parlent de LS19, le numéro des Cahiers du cinéma20 renvoyant de la conception du programme à l'attitude du spectateur. LS a réussi d'emblée une industrialisation des voies critiques. Traditionnellement, le critique est tout sauf complice; il a le pouvoir de dénoncer, il est extérieur au système de production, ce qui fait dénoncer au besoin sa compromission. Sans la liberté de blâmer, il n'y a pas d'éloge flatteur. Avec LS, c'est au contraire en usant pleinement de son pouvoir de dénonciation que le critique se fait complice, qu'il devient un rouage à part entière du système de production, un partenaire de la réussite audimétrique et économique des sociétés Endemol et M6. Pourquoi partenaire ? Les voix critiques ont donné à cette émission ce qui lui faisait défaut, du sens. Elles ont accrédité l'idée, essentielle au projet, que quelque chose comme un espace public de discussion pouvait être en jeu. Et ceci, qu'elles se rangent du côté de la «critique éclairée», qui interroge les logiques télévisuelles, de la «démarche compréhensive», qui fait du programme l'expression d'une société ou de l'«indignation apocalyptique» 21 - tout particulièrement sans doute dans ce dernier cas. Libération a dénoncé le fait que les lofteurs soient de la « chair à audimat ». La chair était fournie par M6, les critiques ont occupé le terrain de l'esprit - un terrain d'autant plus facile à occuper qu'ils ont massivement dénoncé le vide politique et culturel d'une société qui regarde LS. Ils se sont référés à de grands principes éthiques, «valorisant» au sens propre une émission qui pour ses concepteurs et diffuseurs avait pour objectif la rentabilité économique maximale. Ils se sont mis malgré eux au service de l'audience 22 . Étrange renversement, car au moins, Steevy, Loana et les autres savaient à quoi ils participaient et revendiquaient leur désir de notoriété et d'argent. Sans doute la dénonciation est-elle utile. Mais en l'occurrence elle n'a pas permis de faire baisser l'audience, bien au contraire. Alors que la critique est censée être salvatrice, elle a ici été dévastatrice. Il ne s'agit pas ici de désavouer l'exercice de la critique, mais de souligner le type de paradoxe dans lequel toute voix critique se trouvait structurellement prise: dénoncer le vide politique et culturel d'une société qui regarde LS équivalait à remplir l'espace journalistique avec LS. M6 a orchestré un débat qui a relégué au second plan sa stratégie économique, tout en la confortant. Alors que l'audience se définit comme un ensemble de consommateurs, les critiques ont glosé sur les effets du programme sur les téléspectateurs-citoyens. Ce faisant, ils ont contribué à maximiser l'audience en incitant les Français à regarder le programme pour s'en faire une idée, et à l'optimiser, en attirant vers le programme des CSP+, prisées 150

HERMÈS 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

par les annonceurs. Bref, ils ont participé à la production du programme, en conférant du sens à une entreprise économique et en lui donnant la dimension d'un débat public23.

L'œil de M6 omniprésent L'utilisation du logotype dans les médias est un indice flagrant du piège dans lequel sont tombés beaucoup de ceux qui ont voulu faire entendre une voix critique. L'«œil» du Loft a été massivement repris dans les médias, avec les codes-couleurs qui l'accompagnent. Alors qu'habituellement un logotype est jalousement gardé par son propriétaire, ici il a manifestement été gracieusement distribué... Ce qui a donné lieu à des paradoxes, comme celui de, Marianne, dénonçant le fait que la France soit prise « en otage dans un bunker de 225 m 2 » 24 et livrant dans le même temps les indices visuels de sa propre sujétion, avec en couverture les couleurs bleu et orange de l'émission et pas moins de 22 reprises du logotype... Pourquoi les médias ont-ils repris ainsi les marqueurs sémiotiques de Loft Story ? Sans doute parce que l'œil choisi comme logo par M6 fait référence au Big Brother de 1984, symbole de la terreur, du haïssable. M6 a choisi pour son émission un anti-logo, une contrepublicité: la chaîne a fait d'un symbole du détestable son image de marque et un objet d'adoration. D'où l'ambivalence des reprises: les médias critiques l'ont repris au nom de son signifié «absolu» (hors-contexte LS), alors qu'en contexte (sur le marché médiatique) ils ne faisaient que rendre service au programme stigmatisé. De l'espace des couvertures à l'économie visuelle des kiosques à journaux, l'occupation du champ visuel par la signature de LS a fait des critiques des partenaires économiques malgré eux - est-ce vraiment malgré eux d'ailleurs, puisque les ventes ont connu une hausse non négligeable pendant la période de diffusion du Loft ?

De l'instrumentalisation de la critique à l'industrialisation de la trivialité Une réflexion est nécessaire, par-delà le constat de cette «capture» de la fonction critique, sur les transformations en jeu de l'économie médiatique, aux sens propre et figuré HERMÈS 37, 2003

151


Yves Jeanneret et Valérie Patrin-Leclère

(ce qui est en jeu, c'est bien le rapport entre logiques communicationnelles et logiques financières). À cet égard, plusieurs perspectives s'offrent à nous. La première consiste à mettre LS en rapport avec un phénomène médiatique plus général, la montée d'une «logistique de la trivialité» dont on a vu beaucoup de formes récemment. Les médias y apparaissent comme producteurs, moins d'un discours sur le monde que d'un dispositif de réactivation incessante du commentaire affectionnant, non le débat, mais la querelle. Pour le dynamisme médiatique d'un tel dispositif, plus la question est porteuse de malentendus, plus les commentaires prolifèrent25. C'est peut-être l'un des aspects qui rassemblent le plus profondément - au plan des logiques de dispositifs plus que de telle ou telle technologie - les dynamiques de la télécommunication, celles de la presse et celles de l'audiovisuel. Dressant quelques perspectives d'observation et d'analyse des «industries du contenu», Bernard Miège souligne la complexité des rapports qui unissent aujourd'hui les industries de programme proprement dites et la confection de dispositifs destinés à permettre l'activité communicationnelle. Ces derniers visent à développer des potentialités de communication, attendant des acteurs sociaux qu'ils les investissent et leur donnent toute leur rentabilité26. Ce à quoi nous assistons, avec LS, c'est à une forme d'articulation très particulière de ces deux logiques. L'entreprise médiatique crée des programmes en même temps que des structures et des formes que les acteurs remplissent de leurs propres productions communicationnelles. À cet égard, LS s'apparente d'une certaine façon à la série messageries, forums, libre antenne, etc. La chaîne ne choisit pas entre média de programme et média de relation, mais systématise une logistique de l'interdépendance entre ces deux dimensions du travail médiatique. D'où la place tout à fait nouvelle occupée par la critique, et plus généralement le débat, dans l'économie télévisuelle. Enfin, la réflexion ici amorcée pourrait contribuer à «décrisper» quelque peu le débat théorique au sein de la sociologie des médias. Il est très difficile de sortir d'une position du problème qui obligerait à choisir entre des industries culturelles comprises comme asservissement des esprits et une liberté souveraine du «récepteur». L'expérience de LS suggère la solution imaginée par le capitalisme pour dépasser cette alternative: celui-ci n'a nullement besoin de contrôler les jugements pour étendre sa capacité à industrialiser le champ culturel. Il lui suffit d'assurer une industrialisation de la réception, ou plus exactement de la trivialité. Du point de vue des experts de l'audience, quelle que soit la posture du récepteur, qu'il collabore, dénonce ou négocie le code, pour reprendre les termes de Stuart Hall27, tout est bon. Everything goes.

152

HERMES 37, 2003


Loft Story 1 ou la critique prise au piège de l'audience

NOTES 1. Terminologie évidemment idéologique (Jost, François, La Télévision du quotidien: entre réalité et fiction, INA De Boeck, 2001). 2.

Système qui s'est généralisé avec la domination de la télévision commerciale, déclenchée en France par la privatisation de TFl en 1987.

3

II ne faut donc pas considérer comme synonymiques les expressions «l'audience d'une émission» et «l'ensemble de ses téléspectateurs». C'est vrai pour tous les médias de masse: l'audience d'une émission de radio, ce n'est pas la même chose que son auditoire; l'audience d'un titre de presse, ce n'est pas la même chose que son lectorat. Ce n'est pas la même chose... alors que dans l'usage les concepts sont employés indifféremment, sous prétexte que «l'ensemble des consommateurs» désigne les mêmes individus que «l'ensemble des téléspectateurs», «des auditeurs» ou «des lecteurs»...

4.

Émission quotidienne à 18 heures du 26 avril 2001 au 20 mai 2001, puis à 19 heures du 21 mai 2001 au 5 juillet 2001 et «best-of» de quelques minutes tous les jours à 20 h 45.

5.

Chaque jeudi à 20 h 45.

6.

«Loft Story prenant la succession du traditionnel film du jeudi limité par la loi à une seule interruption publicitaire, M6 a pu insérer un écran de coupure supplémentaire et augmenter ainsi son temps de diffusion publicitaire du jeudi soir sur la tranche 20h50-23h30. La conjugaison de la hausse des tarifs et de l'augmentation du temps de publicité a permis à M6 de multiplier ses recettes brutes, qui ont plus que triplé entre un jeudi moyen d'avant Loft et un jeudi moyen durant Loft Story. » (Communiqué de presse de l'Union des annonceurs, 11 juillet 2001, «Les annonceurs français et la télévision-réalité»).

7.

570000 personnes se seraient connectées quotidiennement en moyenne en 2001. Elles seraient près de 700000 en mai 2002 (Le Parisien, 31 mai 2002).

8.

600 000 exemplaires vendus pour les trois numéros du magazine (Source: extraits d'analyse financière réalisée par Crédit Lyonnais Securities Europe, supplément publicitaire au Journal du Dimanche, 1 avril 2002. Article «Loft Story: le salaire de la peur»).

9.

Disque des lofteurs vendu à plus de 1, 2 million d'exemplaires en 2001.

10. Estimées à 4 millions d'euros; même source que note 7. 11. Comme annoncé en voix off dans le jingle de présentation de l'émission. 12. Dominique Mehl voit dans ce programme l'apogée de la «néotélévision», marquée par la participation du public, le jeu entre réalité et fiction, la dominante relationnelle du contrat de communication et la prétention de la télévision à agir dans le social (Mehl, D., «La télévision relationnelle», Cahiers internationaux de sociologie, vol. CXII, 2002, p. 63-95). 13. Benjamin Castaldi, 24 mai 2001. 14. Le Medef n'a pas pris une position morale, mais il s'est inquiété pour la productivité des entreprises françaises, en raison du grand nombre de salariés connectés au Loft depuis leur lieu de travail. 15. Rolland, Romain, «Jean-Christophe: La Foire sur la place», Cahiers de la quinzaine, 9e série, 13e cahier, 1908.

HERMES 37, 2003

153


Yves Jeanneret et Valérie Patrin-Leclère

16. Les chiffres d'audience et les prix de vente de l'espace publicitaire ont été généreusement fournis par M6 aux différents médias, notamment de presse écrite, qui les ont fait connaître au grand public. Or il est rare que les médias-supports communiquent des chiffres relatifs à la vente de leur espace publicitaire: vis-à-vis des destinataires, ils préfèrent généralement rester aussi discrets que possible sur le fait que la production et la diffusion de programme ont pour but l'obtention de revenus publicitaires. 17. «Voici trois versions afin de savoir quoi dire dans le bus, au dîner de famille ou à vos enfants qui vous serinent avec Aziz, Kenza, Jean-Edouard, Loana et les autres. » (France-Soir, 19 mai 2001). 18. Libération, 3 mai 2001. 19. «Le Monde a voulu connaître la façon dont les Français regardent ce programme, qui a suscité une abondante polémique, notamment dans nos colonnes. » (Le Monde, 19 mai 2001). 20. «Pour Loft Story», Les Cahiers du cinéma, n° 558, juin 2001. 21. Les catégories sont empruntées à Dominique Mehl («Loft Story: la fracture culturelle», in L'État de l'opinion, Sofrès, Paris, Seuil, 2002, p. 143-157). 22. Sur ce point, notre analyse se distingue nettement de celles qui défendent l'idée que l'émission aurait réussi en dépit des critiques. Le dispositif LS est fabriqué pour tirer bénéfice de la critique et de la dénonciation, il a été bâti pour les susciter et s'en nourrit. De ce point de vue, l'idée d'un succès contre la critique couronne la création de sens en qualifiant le programme comme culture populaire authentique opposée à l'intellectualisme, aux « gens d'en haut ». 23. Le moindre succès de Loft Story 2 nous semble confirmer cette analyse. Les voix critiques n'étant plus présentes pour conférer du sens à l'entreprise, l'audience chute malgré le maintien et l'accentuation du caractère exhibitionniste du programme et la chaîne se voit contrainte à dévoiler le dessous des cartes. M6 répond à cette difficulté d'exciter la réécriture par le cynisme, en parlant argent, en revendiquant sa réussite économique et surtout en occupant elle-même le terrain critique laissé vacant (Le loft du samedi soir, Le morning live, partenariat avec Fun radio, etc. ). LS 2 est moins une nouvelle émission identique qu'un élément du processus de commentaire. 24. Marianne, n° 216, 11-17 juin 2002. 25. JEANNERET, Yves, L'Affaire Sokal ou la querelle des impostures, Paris, PUF, 1998. 26. MIÈGE, Bernard, Les Industries du contenu face à l'ordre informationnel, Grenoble, Presses Universitaires de Grenoble, 2000. 27. HALL, Stuart, «Encoding/Decoding», Culture, Medias, Languages: Working Papers in Cultural Studies, Londres, Hutchinson, 1980.

154

HERMES 37, 2003


III. L'AUDIENCE COMME OUTIL DE CONNAISSANCE DU PUBLIC

Michel Souchon Sophie Benoit Dominique Boullier Marc Tessier


Michel Souchon Groupe Bayard

POUR UNE UTILISATION COMPLEXE DE L'AUDIMÉTRIE L'origine de la télévision en France correspond à la naissance de la méthode des sondages. Jean Cazeneuve et Jean Oulif voyaient en cette concomitance «la grande chance de la télévision»1. Conscients du caractère partiel des réactions exprimées par les lettres des auditeurs et des téléspectateurs, les responsables de la radio et de la télévision ont eu recours très vite aux consultations d'échantillons représentatifs pour recueillir des informations sur le nombre et la satisfaction des publics de leurs émissions. Ces sondages commandés à l'Ifop, voire à l'Insee, semblaient scientifiquement solides, et leur utilisation dans la programmation ne paraissait pas scandaleuse, d'autant qu'elle était limitée: bien d'autres critères pesaient davantage, les prescriptions des élites politiques et culturelles notamment. Et, de toutes manières, tout le public à l'écoute se répartissait sur les deux ou trois chaînes du service public.

L'audimat accusé Lorsque les chaînes se multiplient et que la publicité joue un rôle grandissant dans le financement des sociétés de programmes, la situation change totalement. Dans les années 1980, l'instrument audimétrique se met en place, alors que les chaînes commerciales font leur apparition dans le paysage audiovisuel. Les observateurs et les critiques voient dans cette nouvelle concomitance la grande malchance de la télévision. Et, depuis lors, la dénonciation HERMÈS 37, 2003

157


Michel Souchon

de la «dictature de l'audimat» est un des thèmes récurrents des discours sur la télévision. Avec un présupposé implicite: l'opposition de l'audience et de la qualité. On ne peut servir deux maîtres, il faut choisir. D'où la nécessité de compléter la mesure de l'audience par l'évaluation de la qualité, l'«audimat» par le «Qualimat». La première apparition du terme est bien antérieure: elle date déjà de l'éclatement de l'ORTF, en 1975, lorsque le législateur introduit la note « Q » dans l'équation de répartition de la redevance entre les sociétés issues de PORTE Nouvelles manifestations en 1989 dans la bouche du premier «président commun» de la télévision publique, Philippe Guilhaume, puis de Jean-Noël Jeanneney en 1991. Dans le même sens, on se souvient des déclarations de M. André Santini, lors de la privatisation de TF1 en 1987 («On ne demande pas à Antenne 2 de faire de l'audience, on lui demande de faire de la culture. ») et de celle de M. Jean-Jacques Aillagon, quinze ans plus tard. Les nominations aux mêmes postes produisent les mêmes effets de discours.

Injonctions contradictoires Ainsi, tout au long de son histoire, le service public de la télévision a été invité à remplir une mission présentée, de manière drôle et très juste, par Françoise Giroud à la fin des années 1980: «On demande à Antenne 2 d'avoir l'audience de TF1 avec les programmes d'Arte. » C'est enfermer les responsables de la télévision publique dans ce «double bind» dont nous ont beaucoup parlé les psychologues de l'école de Palo Alto. «Faites bien ce que vous voudrez, de toute façon, ce sera mal. Votre audience est faible: c'est mal; certes vous avez de bons programmes, mais vous êtes incapables de rassembler les foules dans les grandes célébrations joyeuses de la culture. Votre audience est forte: c'est mal; vous racolez le public avec des émissions qui ne présentent pas suffisamment de différence par rapport à celles des télévisions commerciales. »2 Je vais essayer de montrer que les travaux sur le public de la télévision, sur l'audience de la télévision peuvent aider à sortir de cet enfermement dans des injonctions contradictoires.

Un instrument nécessaire aux sociétés de programmes Entendons-nous bien: l'objectif de ce texte n'est pas de faire l'apologie d'une politique de programmes médiocre. Il est bien clair que la recherche obsessionnelle de l'audience 158

HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

maximale conduit à la démagogie. Mon but est différent: il est de montrer qu'il est possible de faire une utilisation intelligente et féconde de l'instrument audimétrique, y compris pour des télévisions du service public. Pour enseigner les mathématiques à John, dit la vieille sagesse des pédagogues, il faut connaître les mathématiques et John. Pour faire une bonne politique de programmes, il faut connaître le public, dans la diversité de ses attentes et de ses comportements. À quoi l'instrument audimétrique contribue. Il n'est assurément pas le seul. Dans la mesure où le public de la télévision est coextensif à la société française, tous les travaux économiques ou sociologiques et toutes les études de prospective sont utiles pour connaître les téléspectateurs. Les sociétés de programmes ont encore recours à des réunions de groupe, à des entretiens non directifs, à des tests de «pilotes», etc. Mais, compte tenu du coût de l'instrument audimétrique, il serait malheureux qu'il ne soit pas utilisé aussi intelligemment que possible par les responsables des sociétés de programmes. Pendant les premières années de son existence, les audimètres ne mesuraient que l'audience des foyers. En 1988-1989, l'addition des boîtiers comportant des touches individuelles a permis des tris beaucoup plus intéressants et le suivi des comportements personnels. À partir des données ainsi collectées, une utilisation intelligente suppose la construction d'indicateurs, car l'audience est une réalité complexe que l'on ne peut appréhender par un seul indicateur.

Un détour: l'audience, c'est des « heures-spectateurs » Pour construire des indicateurs d'audience et les bien comprendre, il me semble utile de passer par une idée simple: l'audience de la télévision ne s'exprime et ne devrait à peu près jamais s'exprimer en nombre de personnes, mais en nombre d'heuresspectateurs. L'audience de la télévision, c'est des gens qui passent du temps devant la télévision. Non pas des spectateurs seulement. Non pas des heures abstraitement. Des heures-spectateurs, comme on parle de kilomètres-voyageurs en économie des transports. Pour parler de l'audience d'une émission de télévision, on ne peut utiliser seulement un nombre de gens; on ne peut utiliser seulement une durée pour parler de l'audience d'une chaîne. Les seuls cas où on puisse parler en nombre de gens, c'est au sujet de l'audience instantanée (à tel moment précis, telle chaîne ou telle émission avait tant de spectateurs) et de l'audience cumulée (pendant la diffusion de telle émission ou pendant telle période de temps, tant de personnes ont regardé au moins une partie de cette émission ou de cette tranche horaire). Dans les autres cas, l'audience de la télévision doit être exprimée en heures-spectateurs3. HERMÈS 37, 2003

159


Michel Souchon

Un exemple: Tannée 2001 Le volume L'Année TV 2001, publié par Médiamétrie, nous apprend que la part d'audience de TF1 sur l'ensemble de l'année a été de 32, 7 % , celle de France 2 de 21, 1 %, celle de France 3 de 17, 1 %, celle de M6 de 13, 5 %, etc. Pour comprendre ces chiffres, il faut passer par un volume total d'écoute de la télévision additionnant toutes les heures passées devant le petit écran par les 7 240 personnes « de quatre ans et plus vivant dans un foyer équipé au moins d'un téléviseur» qui font partie du panel audimétrique de Médiamétrie et qui représentent (au sens des sondages) la population de référence (53 millions). Ce volume d'écoute se chiffre en heures par individu (en 2001, 3 heures 17 minutes en moyenne journalière; 1 054 heures 32 minutes en volume annuel) ou mieux en heures-spectateurs (55, 89 milliards sur l'année). Pourquoi privilégier cette dernière approche? Parce que le chiffre par individu est un chiffre moyen qui conduit à penser que les différences entre les individus sont peu importantes. On dira couramment que les Français regardent la télévision pendant plus de mille heures par an. Ce qui est faux: certains regardent pendant beaucoup plus de temps et d'autres pendant beaucoup moins. Le volume d'écoute exprimé en heuresspectateurs n'induit rien de tel. De plus, je montrerai plus loin que cette manière de présenter le volume d'écoute permet des analyses nombreuses et révélatrices des comportements différenciés des spectateurs.

Multiplicité des indicateurs de « l'audience » À partir des banques de données constituées par les relevés audimétriques, on peut construire des indicateurs très nombreux. Citons en quelques-uns: - l'audience instantanée (Instant Audience) est le plus simple: c'est l'ensemble des personnes présentes devant la télévision ou telle chaîne à un moment précis; - l'audience cumulée (Reach ou Cumulative Audience) est l'ensemble des personnes qui ont vu au moins un fragment de la période étudiée (émission ou tranche horaire); - l'audience en entier {Programme Total Audience) est l'ensemble des personnes qui ont vu toute la période étudiée (émission ou tranche horaire); - l'audience moyenne {Rating ou Average Audience) est le nombre de personnes présentes, en moyenne, pendant la durée d'une émission ou d'une tranche horaire (autrement dit, c'est la moyenne de toutes les audiences instantanées); 160

HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

- la part d'audience ou part de marché (Share) est le rapport de l'audience moyenne d'une émission ou d'une tranche horaire à l'audience moyenne de la télévision pendant le même laps de temps; - le volume d'écoute (Viewing Time) est le temps passé devant la télévision (ou telle chaîne) pendant une période de temps donnée par l'ensemble des individus d'une population; - etc.

On ne peut mesurer «l'audience d'une émission» par un seul chiffre De ce qui précède, on peut déduire que «l'audience d'une émission» ne peut être mesurée par un seul chiffre. Ou plutôt, l'audience d'une émission ne devrait pas être mesurée par un seul chiffre, car le plus souvent on entend ou on lit des phrases comme: «Telle émission a eu 10 % d'audience, ce qui, compte tenu de la valeur du point, représente 5, 3 millions de spectateurs. » C'est réduire la notion d'audience à un seul indicateur, l'audience moyenne. Donnons deux exemples qui montreront que la réalité de l'audience est bien différente. Deux films ont été diffusés par la télévision publique pendant la semaine du 11 au 17 mai 1992: Les Liaisons dangereuses (mardi 12 mai, France 2, 20h56, 115 minutes) et Le Guépard (jeudi 14 mai, France 3, 20h47, 171 minutes). Les indicateurs utilisés ici sont assez faciles à saisir. Disons seulement que le pourcentage de fidélité répond à la question: sur 100 personnes présentes au début de l'émission, combien l'ont vue en entier ?

Audience Audience Audience Audience Audience

cumulée initiale moyenne finale intégrale

Heures-spectateurs Pourcentage de fidélité HERMÈS 37, 2003

Les Liaisons dangereuses

Le Guépard

36, 2 % = 18, 6 millions 7, 3 % = 3 , 6 millions 7, 8 % = 3 , 9 millions 6, 9 % = 3 , 4 millions 4, 8 % = 2 , 4 millions

30, 4 % = 15, 6 millions 5, 8 % = 2 , 9 millions 4, 5 % = 2, 2 millions 2, 7 % = 1, 3 million 1, 5 % = 0 , 7 million

7, 475 millions 62%

6, 270 millions 23% 161


Michel Souchon

On voit bien, sur ces deux exemples, que le public d'une émission est à la fois beaucoup plus et beaucoup moins important que le chiffre de l'audience moyenne. Beaucoup plus important, parce que, presque toujours, le nombre de ceux qui voient un fragment d'une émission donnée est plus grand que celui qui est exprimé par le chiffre de l'audience moyenne de cette émission: beaucoup de gens entrent et sortent, passent quelques instants. Beaucoup moins important, si on ne retient comme «spectateurs» de l'émission que ceux qui l'ont vue en entier (à la manière des spectateurs d'une salle de cinéma)4. Autrement dit, l'audience d'une émission et de la télévision en général ne peut être analysée uniquement avec la métaphore de la salle de spectacle, une partie relève de la métaphore de la salle des pas perdus.

Des usages différents Les utilisateurs de l'audimétrie ont des manières de faire différentes et privilégient tel indicateur plutôt que tel autre. Les publicitaires, par exemple, construisent des indicateurs tels que le «GRP» (c'est-à-dire l'addition des pourcentages d'audience moyenne obtenus par un message publicitaire lors de ses différents passages à l'antenne), la «couverture» (le nombre total de personnes ayant vu un message publicitaire au moins une fois lors de ses différents passages à l'antenne) ou le «taux de répétition» (le nombre moyen d'expositions à un message publicitaires pour les personnes figurant dans la «couverture»). Les programmes de média planning sont destinés à chercher l'utilisation optimale du budget d'un annonceur en déterminant les emplacements les plus favorables, en termes de GRP, de couverture ou de répétition, en fonction de la cible des messages. Il faut ajouter à ces calculs permettant de déterminer le «coût au mille» le plus faible possible, des facteurs moins facilement pondérables comme la «prime au leader», la notoriété et le prestige d'un programme, etc. Ici peuvent intervenir une bonne politique de communication et l'accent mis sur un indicateur de la «force globale» de la chaîne: sa part de marché.

L'obsession des parts de marché Autre exemple, moins savant et plus anecdotique, d'un usage des données audimétriques. Cet exemple illustre la surévaluation d'un seul indicateur, la «part de 162

HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

marché», dans les télévisions commerciales. J'étais responsable des études à TF1 au moment de la privatisation, en 1987. Les nouveaux responsables de la chaîne disaient: «Nous n'avons acheté rien d'autre que 40 % de part de marché. Et nous les avons payés très cher {le plus gros chèque jamais signé par un Auvergnat, a dit Francis Bouygues dans une interview). On annonce que nous descendrons à 33 % en 1992. Il faut éviter cette baisse. » La barre des 40 % devint la ligne bleue des Vosges. Pendant l'été, une note de service me demanda de faire chaque semaine un document qui porterait, sur la grille de programmes hebdomadaire, pour chaque émission de la chaîne, l'objectif d'audience correspondant à 40 % de part de marché et l'audience réalisée, «afin qu'on voie rapidement les émissions viables et celles qui n'ont plus leur place dans la grille». L'utilisation de stabilos rouge et vert rendait le document rapidement lisible!5 Ayant surtout travaillé dans le secteur du service public, je souhaite montrer que l'instrument audimétrique présente beaucoup d'intérêt pour évaluer les télévisions de ce secteur, lorsqu'on dépasse cette manière simpliste de l'utiliser.

L'étude de la structure du volume d'écoute par genre Revenons au volume d'écoute exprimé en heures-spectateurs. Il peut être analysé dans des directions très variées. Donnons quelques exemples. Il est possible de chercher quelle est la part tenue par les différentes catégories d'émission dans le volume d'écoute de la télévision. En 2001, les journaux télévisés représentaient 15, 3 % des heures-spectateurs; les films 7 % ; les fictions télévisées 24, 8 % ; les magazines et documentaires 20, 4 %; les jeux 8, 5 % ; les variétés 4, 3 % ; les émissions sportives 4, 8 % ; les émissions pour la jeunesse 2, 7 % ; la publicité 8, 2 % . . . La comparaison de la structure du temps d'antenne (des programmes diffusés) et de la structure du volume d'écoute (des programmes reçus) permet des analyses utiles des comportements des spectateurs. Une autre comparaison, celle de la part des genres dans les programmes diffusés et dans le volume d'écoute des différentes chaînes, est un instrument performant pour l'étude du paysage télévisuel.

Le téléspectateur moyen n'existe pas Pour sortir de la fiction simplificatrice du «téléspectateur moyen», il est indispensable d'étudier la structure du volume d'écoute par genre de programmes dans les groupes de la HERMÈS 37, 2003

163


Michel Souchon

population classée par âge, sexe, type d'activités socioprofessionnelles ou catégorie d'habitat. J'ai pratiqué des études comparées de la télévision reçue par des groupes constitués en fonction de l'importance de leur durée d'écoute de la télévision6. Ces études ont permis de découvrir que les téléspectateurs les plus assidus ont un éventail de choix plus ouvert que les petits spectateurs, faisant aux émissions de découverte et d'ouverture sur le monde une place importante, alors que bien des essayistes croient qu'une forte durée d'écoute s'accompagne de la consommation boulimique des fictions et des divertissements. Exemple: la part relative de la fiction télévisée et surtout des films est beaucoup plus élevée dans la «télévision reçue» des «petits consommateurs» que dans celle des «gros consommateurs» 7 . Ces derniers se servent beaucoup du petit écran parce que, n'ayant pas de nombreux moyens d'information, de distraction, de loisirs et de spectacles, ils font de la télévision un «média utile à toutes fins» (un all-purpose media, disaient dès les années 1970 des sociologues anglais)8.

Une variable complexe J'aime bien le mot de Jean Paulhan: «C'est le langage qui a besoin d'être simple, et les opinions un peu compliquées. »... Pour compliquer un peu les analyses, il m'a semblé utile, à plusieurs reprises, de croiser les variables d'âge, de niveau d'instruction et de sexe pour obtenir une «variable complexe» que j'ai appelée - pas très finement - Anis. À partir de deux niveaux d'instruction (relativement bas et relativement élevé), de trois classes d'âge (jeunes, personnes d'âge moyen et personnes âgées) et des deux sexes, on obtient une typologie en douze groupes construite a priori9.

La fidélité à un programme comme indicateur d'intérêt Encore un autre souvenir d'ancien combattant. Lorsque je travaillais dans le secteur des études de la télévision publique, la demande m'a été adressée à plusieurs reprises de construire des «indicateurs de la qualité» qui compenseraient le poids jugé excessif de l'audience. L'utilisation des sondages à cet effet se heurtant à des difficultés de méthode qui me semblaient - et qui me semblent toujours - insurmontables, j'ai toujours plaidé pour la recherche d'indicateurs basés sur le comportement objectif des responsables des chaînes, 164

HERMÈS 37, 2003


Pour une utilisation complexe de l'audimétrie

suivant la règle énoncée par Maria Casarès dans un vieux film de Bresson: «Il n'y a pas d'amour, Hélène, il n'y a que des preuves d'amour. » Quelles preuves d'amour de la qualité ? Par exemple: le nombre d'heures de documentaires diffusés; la nature des émissions placées dans le prime time (ouvrent-elles vraiment les choix des téléspectateurs aux heures de plus grande écoute?); la part du budget consacrée aux créations dans le domaine de la fiction et des programmes caractérisant le service public, etc. Mais il est possible d'emprunter une autre voie qui s'appuie à contre-courant sur les chiffres de l'audimétrie. Par exemple, il est possible de calculer le nombre de personnes ayant suivi la totalité d'une émission, et de produire des «pourcentages de fidélité» répondant à la question: «Sur 100 personnes présentes au début de l'émission, combien l'ont suivie jusqu'au bout ? ». Il est clair que cet indicateur apporte des informations sur la capacité des émissions à intéresser leur public.

Des « preuves » de la qualité L'utilisation des indicateurs que nous avons énumérés et définis ci-dessus permet d'apporter encore d'autres preuves de la qualité d'une chaîne de service public... à condition évidemment que ses résultats soient probants ! Exemples: - Les chiffres d'audience cumulée sur une semaine (en retenant une durée minimale significative, de l'ordre du quart d'heure en continu) montrent que beaucoup de gens utilisent la chaîne, la jugent «utile»: malgré l'extrême diversité des publics et malgré les exigences contradictoires des spectateurs, la proportion est très faible de ceux qui, au cours d'une semaine, ne trouvent absolument rien d'intéressant sur cette chaîne; ce qui apporte la preuve qu'elle est authentiquement «généraliste». - Dans la structure du volume d'écoute de la chaîne, les émissions de la curiosité, de l'intelligence et de l'information tiennent une place importante: les spectateurs manifestent qu'ils ont besoin de cette chaîne pour ce type de programmes qu'ils trouvent plus difficilement ailleurs (plus rarement ou à des heures de moins forte écoute). - La part d'audience de la chaîne est élevée dans tel groupe de la population, négligé par les télévisions commerciales, alors que ce groupe, pour diverses raisons, compte beaucoup sur la télévision pour son information, son divertissement et sa culture. - P o u r ce qui est des émissions caractéristiques d'une télévision publique (les documentaires, les magazines d'information ou de reportages), les parts d'audience de la chaîne sont supérieures à la part d'audience moyenne, ce qui prouve la différence de ses productions et de sa politique de programmation. HERMÈS 37, 2003

165


Michel Souchon

Une utilisation intelligente ? Au moment de terminer ce texte, je rencontre un ami dans un ascenseur. Il me demande si je m'occupe encore un peu du paysage télévisuel. Pas beaucoup, mais en ce moment, justement, j'écris un texte sur la possibilité d'utiliser intelligemment l'audimat. Il s'étonne: Est-ce possible ? J'allais essayer de lui répondre, mais les portes de l'ascenseur se sont refermées. Je lui enverrai ce texte. Réussirai-je à vaincre son scepticisme ?

NOTES 1.

Voir le livre qu'ils ont publié sous ce titre chez Calmann-Lévy, en 1963.

2.

J'ai raconté cette histoire dans un essai de «sociologie narrative»: «Télévision et culture. Jalons et anecdotes pour servir à l'histoire d'un malentendu», Revue de l'Institut de sociologie, Université libre de Bruxelles, 1995, 1-2, p. 155-170.

3.

Voir «L'audience de la télévision: plaidoyer pour la notion d'heures-spectateurs», Médias Pouvoirs, 4 e trimestre 1994, p. 11-20.

4.

Le pourcentage de fidélité nettement plus faible obtenu par Le Guépard peut s'expliquer par deux facteurs: sa plus grande longueur (une heure de plus que Les Liaisons dangereuses), qui a favorisé l'instabilité des téléspectateurs (abandon pour certains, report en fin des programmes concurrents pour d'autres); son rang de passage élevé (7e diffusion) qui en faisait un film déjà connu pour une bonne part de son auditoire, alors que le film de Stephen FREARS, datant de 1988, était inédit à la télévision.

5.

Dans le même temps, les responsables du budget recevaient commande d'un document analogue: sur la grille des programmes de la semaine précédente, étaient portés le coût de chaque émission et la recette publicitaire qu'elle avait générée.

6.

Rappelons au passage que les durées d'écoute sont très différentes: 20 % des spectateurs réalisent près de la moitié du volume total d'écoute, un peu plus de la moitié des heures-spectateurs étant assurée par les 80 % restants. Une autre expression simple de cette inégalité est la loi paradoxale «1/3 = 2/3»: un tiers des spectateurs est responsable des deux tiers des heures-spectateurs, etc.

7.

Voir Les Structures du temps d'écoute: une nouvelle classification, Exposé aux journées de l'Irep (1990); Le Public de la télévision, des comportements différents, Institut national de l'audiovisuel-Médiamétrie (mai 1991); Régine CHANIAC et Jean-Pierre JÉZÉQUEL, Télévision et cinéma. Le désenchantement, Nathan et Institut national de l'audiovisuel, 1998 (chapitre 4, «Public du cinéma et public de la télévision»).

8.

Denis McQUAIL (dir. ), Sociology of Mass Communications, Penguin Books, p. 163.

9.

On trouvera des résultats anciens des études Anis dans Petit écran grand public (La Documentation française, 1980, p. 38-60) et dans «Le vieux canon de 75. L'apport des méthodes quantitatives à la connaissance du public de la télévision» (Hermès 11-12, 1992, p. 187-199).

166

HERMES 31, 2003


Sophie Benoit France 2

UNE DIRECTION DES ÉTUDES DANS UNE CHAÎNE DE TÉLÉVISION PUBLIQUE

Toutes les chaînes de télévisions, publiques ou privées, à péage ou câblées, disposent d'un certain nombre d'outils et les utilisent pour connaître le public qui les regarde. Ce qui paraît à la fois normal et rassurant, pour qui fabrique des programmes et les diffuse, à l'attention de 95 % de foyers français équipés d'au moins un téléviseur. Le groupe Francetélévisions, qui totalise en moyenne sur une journée 27 millions de personnes1 et plus de 40 % de part d'audience, serait bien méprisant de se tenir à l'écart de ses téléspectateurs, de leur adhésion, de leur intérêt à regarder tel ou tel programme, de leur plaisir ou... leurs infidélités (!). Une direction d'Etudes commune aux chaînes du groupe et trois directions affiliées à chaque chaîne sont chargées de regrouper et d'analyser l'ensemble des données disponibles sur l'auditoire de la télévision. Combien de téléspectateurs, où, quand, comment, pourquoi... ? Questions perpétuelles auxquelles la direction des Études tente de répondre afin de permettre à France 2, chaîne généraliste de service public, de ne pas se couper de son public. Pour trouver les réponses, les Études disposent d'outils divers et variés, allant du traitement des données brutes d'audience aux études qualitatives en passant par l'analyse des comportements de certaines catégories de la population française. Reste à bien cerner les demandes de chacun, direction des programmes et de la programmation, unités de programmes, et définir au mieux les problématiques pour sélectionner les outils les plus adéquats. HERMÈS 37, 2003

167


Sophie Benoit

À ce titre le rôle des responsables et des chargés d'études est primordial. C'est à eux que revient le choix et la pertinence de la méthode, l'observation, l'analyse et la synthèse et enfin la présentation et la diffusion des résultats.

Mesures et indicateurs d'audience Il se passe beaucoup de choses dans un service d'études. Dès 9 heures du matin, les coups de téléphone affluent, responsables d'émissions, directeurs, attachés de presse, animateurs, tous préoccupés par leur taux d'audience de la veille. Mais le rôle des Études ne se résume pas à sa capacité à répondre au téléphone. D'ailleurs, la diffusion des résultats bruts, taux de pénétration, part d'audience, est depuis longtemps automatisée, proposée sous forme de grille que chacun peut consulter dans la chaîne. Même si quelques confusions peuvent perdurer, entre part d'audience et audience moyenne (sic), aujourd'hui, les principaux acteurs de la chaîne percutent immédiatement à la lecture des résultats, soucieux d'avoir touché leur public. L'outil primordial et le plus performant pour quantifier l'écoute des téléspectateurs des chaînes hertziennes reste le Médiamat. Les résultats issus du panel de Médiamétrie fournissent les audiences de chaque chaîne, minute par minute et sur 27 cibles standard. La première cible observée est celle qui comptabilise l'ensemble des téléspectateurs de plus de 4 ans. Mais toutes les cibles sont passées à la loupe, des enfants de 4 à 10 ans aux seniors de plus de 60 ans en passant par les CSP+ (catégorie socio-professionnelle élevée). Dernière cible, mise en avant et exploitée par France Télévisions Publicité: les 25-59 ans. En effet, pendant longtemps on a séparé de manière un peu systématique les moins de 50 ans, jeunes adultes et les plus de 50 ans, les vieux... Aujourd'hui, même si la ménagère de 15 à 49 ans reste la cible privilégiée des annonceurs, certains regroupements collent mieux avec la réalité démographique et économique de la société. Médiamétrie met à la disposition des chaînes les données d'audience agrégées et individuelles. Chaque service d'études peut, à partir de là, créer ses propres «assemblages» (comme, par exemple, la cible des lecteurs de Télérama qui possèdent deux voitures ! ! !). De nombreux logiciels sont utilisés pour «triturer» au mieux les données du panel, afin de fournir des résultats fiables et affinés. Ainsi presque chaque programmation aura sa radiographie après diffusion: audience de l'émission et de sa concurrence, profil de public, courbe minute à minute, audience cumulée, flux des téléspectateurs... On peut même aujourd'hui observer ces données d'audience minute à minute en visionnant les 168

HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

programmes en même temps. Un outil qui permet une analyse très fine des flux de public, des reports d'audience d'une chaîne à l'autre. Toutes ces données n'ont finalement qu'un seul but: permettre aux «faiseurs» de programmes et à leurs programmateurs de rencontrer leur public. Ainsi les premiers interlocuteurs des Etudes sont les Directions des programmes et de la programmation. Quoi de plus normal, en effet, pour la programmation d'une chaîne, de s'interroger, avant la mise en place d'émissions pour enfants par exemple, des moments où ceux-ci sont devant le petit écran, ou au contraire quand leur maman se retrouve seule au foyer, au cœur de la matinée par exemple, et à qui la chaîne pourra proposer une émission d'accompagnement. L'art de la programmation réside donc, en fonction des observations de l'audience, à capter le public majoritaire à un instant donné, ou bien en fonction de la concurrence, se placer en offre complémentaire. Ainsi un étudiant rentré trop tôt de son université pourra s'étonner, en allumant son poste, de la diffusion d'épisodes un peu vieillots de polars allemands, mais qui font toujours recette auprès des téléspectateurs de plus de 50 ans, majoritairement présents à cette heure-là de la journée.

Études qualitatives Les résultats d'audience seuls ne sont pas suffisants pour analyser l'impact d'un programme. Il importe à la chaîne de connaître plus finement les réactions de son public afin d'ajuster au mieux ses programmes: l'habitude de regarder Derrick chaque jour cache peut-être un énorme ras le bol, qui ne peut être immédiatement décelé dans le taux d'écoute. Les études qualitatives vont permettre d'anticiper les lassitudes ou les envies de nouveautés et nuancer ainsi les données chiffrées. C'est à partir de ces études, que l'on peut comprendre les atouts ou les écueils d'un programme et de sa programmation. Elles sont réalisées auprès de groupes de téléspectateurs, recrutés en fonction des objectifs de la recherche (focus groupes), ou à partir d'entretiens individuels. La conduite à bien de ces études est tout aussi fondamentale dans une direction d'Etudes que l'analyse des données du panel. Elles sont multiples et variées, traitent d'une émission en particulier ou d'un genre télévisuel dans son ensemble (la fiction, le documentaire, le sport etc. ), servent à tester un nouveau concept ou les réglages d'un nouveau jeu. Toutes donnent la Parole au téléspectateur, seul ou en groupe, sélectionné en fonction du champ de l'étude et à qui l'on demandera de «plancher» quelques heures sur un programme. HERMÈS 37, 2003

169


Sophie Benoit

Les résultats mis à plat et analysés par des experts (psychologues, sémiologues, sociologues, ethnologues ou tout cela à la fois ! ) sont présentés aux directions concernées et la plupart du temps débouchent sur des mesures concrètes: ajustement du programme, nouveau décor, changement de créneau de programmation, promotion plus ou moins forte. Après la mise à l'antenne d'une nouvelle émission, l'audience peut paraître décevante. On lance alors une étude qualitative qui permettra d'évaluer les résultats plus finement, de recadrer éventuellement le format de l'émission et d'évaluer son potentiel. Un certain nombre d'émission de «marque», quelques semaines après leur lancement et avec des résultats d'audience moindres, Ça se discute, Donkey kong, Tout le monde en parle, Union libre pour citer les plus emblématiques, ont récolté les faveurs des téléspectateurs, jeunes ou plus âgés, lors de réunions de groupe. Et ces études qualitatives ont permis à la fois de rassurer la direction de programme sur ses choix et de renforcer la communication. Quelques mois plus tard, on pouvait retrouver ces mêmes programmes en tête des palmarès d'audience et d'image. Un gars, une fille, petit programme décapant et ne répondant pas aux normes habituelles de la chaîne: format court (7 minutes), mi-fiction mi-sketch divertissant, humour grinçant, générique à l'américaine..., autant de points très controversés au sein même de la chaîne à la lecture des premiers résultats d'audience. Mais que fallait-il véritablement penser de ces chiffres: le programme était-il définitivement rejeté ou n'était-il pas encore repéré... notamment auprès d'un public peu fidèle à la chaîne ? Fallait-il le programmer à un autre endroit dans la grille ? L'étude qualitative menée assez rapidement après sa mise à l'antenne a montré des résultats extrêmement intéressants qui ont encouragé la programmation à maintenir le programme à sa place. La réaction des plus jeunes téléspectateurs était enthousiaste, s'amusant de se voir à l'avance dans les travers d'un couple, les plus âgés s'y retrouvant avec nostalgie, et ceux du même âge, les « trentenaires », un peu gênés par ce miroir tendu, mais prêts à en rire. Tous reconnaissant un programme culte qu'ils n'avaient pas encore repéré à cet horaire sur une chaîne un peu traditionnelle. Forte de ces résultats, la direction de la chaîne a tenu bon, remportant quelques semaines plus tard les fruits en termes d'audience (programme de France 2 le plus regardé chez les moins de 50 ans), en terme d'image (l'émission est systématiquement citée comme source de renouvellement et modernisation de la chaîne), en vente de cassettes et de disques. Chouchou et Loulou au rayon des produits cultes. Dans un autre genre, mais tout aussi emblématique pour le public, le magazine d'information Envoyé spécial occupait les jeudis de France 2 depuis plus de dix ans quand ses deux présentateurs-fondateurs-producteurs ont laissé la place à un nouveau couple de femmes, reporters de terrain. En même temps, apparaissaient le jeudi sur une chaîne privée, Loft story, le Big Brother français qui allait déchaîner les passions et quelque peu bouleverser les parts d'audience. Là aussi, les études qualitatives allaient pouvoir aider à repositionner 170

HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

le magazine et confirmer le bon accueil des fidèles du magazine à l'égard des nouvelles présentatrices avant que l'audience se redresse. Dans tous les cas, il s'agit d'avoir l'aval du public en termes de satisfaction. Et au fil de l'existence de la télévision, le téléspectateur est devenu de plus en plus exigeant, voire quasiprofessionnel. Il sait dire quand il s'ennuie, quand les sujets du journal sont confus ou s'il adore la soirée de polars du vendredi. L'amateur de jeux n'aime pas quand les règles sont trop faciles dans un cas, ou cafouilleuses dans un autre. Et il aime aussi que les décors soient «à la hauteur» et que l'animateur soit clair et chaleureux ! Ainsi plusieurs fois par an, les téléspectateurs sont sondés sur la qualité des programmes, sur leur satisfaction par rapport à la chaîne. Et les verbatim résonnent parfois comme des slogans: «France 2, la seule chaîne que l'on est fier de regarder ! » Mais ces études n'ont pas valeur de représentativité (30 à 60 personnes interviewées). Il convient de les croiser avec les résultats du Médiamat et d'autres sondages.

Baromètres quantitatifs Il existe en effet un certain nombre de baromètres, montés avec des instituts d'études reconnus sur le marché, qui permettent également de sonder le public sur ses habitudes d'écoute, ses goûts et ses attentes. À partir d'échantillons représentatifs de la population française, ces sondages nous renseignent sur l'image de la chaîne, son positionnement par rapport à la concurrence, les genres les mieux traités. Certains sont publiés dans la presse média, notamment le sondage Ipsos-Stratégie qui, par exemple, plaçait encore cette année France 2 comme la meilleure chaîne de débats. Leur fréquence d'interrogation permet de surveiller étroitement les positionnements des chaînes. Les items sont construits de manière à répondre aux préoccupations des chaînes de service public. Exemple: la chaîne « qui correspond le mieux à l'idée que je me fais du service public», «qui éveille ma curiosité», «proche de mes préoccupations», «qui divertit le mieux», «qui informe le mieux» etc. Ces baromètres sont d'ailleurs, dans la plupart des cas, pilotés par la direction des études du groupe. Ils sont utilisés également pour les émissions et pour les animateurs. France 2 comme les autres, plus que les autres (?), a le souci de mettre en avant sur son antenne des présentateurs proche de ceux qui les regardent. Que ce soit pour la présentation d'un jeu d'été ou d'un magazine de société. Il existe également des baromètres sur des « cibles » particulières, bien vilain mot pour désigner une catégorie de personnes fédérées à partir de leur âge ou de leur particularité. HERMÈS 37, 2003

171


Sophie Benoit

Ce sont dans la plupart des cas des études par souscription, accessibles à de nombreux clients qui vont des chaînes de télé aux vendeurs de yaourts. Les plus jeunes, enfants et adolescents sont régulièrement interrogés sur leurs goûts alimentaires, musicaux, vestimentaires. Les responsables des programmes «jeunesse» de la chaîne peuvent, grâce à ces indicateurs réguliers, garder un œil sur les exigences de leurs jeunes téléspectateurs qui aiment le hip hop, Djamel et KD2A.

Les études comportementales et sociologiques Mais que font-ils, qui sont-ils, ces téléspectateurs qui regardent souvent ou peu la télévision. Bien connaître la société française, son évolution, va permettre de nourrir les unités de programmes qui réfléchissent à l'évolution de leurs émissions mais aussi à la création de nouveaux formats. Du responsable de la fiction à celui des magazines, chacun s'intéresse à la façon dont les Français appréhendent la vie, le travail, les loisirs, la famille. Nous ne sommes plus là sur les relations entre les publics et les programmes de télévision, mais sur l'analyse plus globale des comportements. Plusieurs types d'études vont permettre d'observer les tendances de la société. Chaque année, un grand Institut de sociologie (Sociovision-Cofremca) fournit les résultats d'un long et passionnant sondage qui s'intéresse autant à l'humeur des Français qu'à leur relation à autrui ou à la politique. Ainsi, l'on peut mieux comprendre, entre autres, l'énorme succès du magazine Ça se discute qui traite des grands thèmes de société à travers le témoignage de l'individu. Ou le succès fulgurant du film Le Fabuleux Destin d'Amélie Poulain. On le comprend mais difficile de le prévoir. Le rêve de chacun serait de pouvoir augurer de ce que sera demain afin de précéder la demande... Les études peuvent parler de tendance, comme dans les cahiers de tendance de la mode, mais ne prédisent pas les choix, les décisions ultimes qui feront le succès de tel produit ou de tel film. D'autant plus qu'aujourd'hui l'individu revendique ses choix... paradoxaux! ! ! Autre institut, autre outil: l'étude «Budget-temps» (Sofrès) offre une approche très concrète des téléspectateurs. Il s'agit de connaître sur une semaine type, quart d'heure par quart d'heure, l'emploi du temps de l'ensemble de la population. Depuis des années, sur les deux premières chaînes nationales, les journaux du soir démarrent à 20 heures. La réussite de ces éditions (environ 13 millions de téléspectateurs pour TF1 et France 2 réunies, soit presque les trois quarts du public disponible) va de pair avec un horaire de programmation adapté aux habitudes de vie des Français. 172

HERMÈS 37, 2003


Une direction des études dans une chaîne de télévision publique

Avec les enquêtes Budget-Temps on peut tout savoir, ou presque, sur les horaires et les activités principales des individus: l'heure du réveil, du petit-déjeuner, du dîner, du coucher... travail, bricolage, jardinage, révision avec les enfants, lecture, etc. À 20 heures, la plupart des gens sont rentrés chez eux, ont terminé de dîner... et ont déjà allumé leur TV. Mais c'est à 21 heures que la majorité du public est réellement disponible, les jeunes parents ayant couché leurs enfants. Si la direction des programmes décidait de démarrer les programmes de premières parties de soirées à 20h30 pile, elle contenterait les plus âgés au détriment de la population jeune et active.

Observation des programmes étrangers et promotion Au-delà du travail d'observation et d'analyse des publics, les Études participent pleinement à la vie de l'antenne en collaborant activement avec de nombreux services comme les Achats de programmes étrangers, les directions artistiques et de communication. La direction commune aux trois chaînes concentre l'ensemble des données concernant les chaînes et les programmes étrangers. Du simple profil d'audience de The Weakest link sur la BBC {Le Maillon faible) à l'étude des soaps ou à celle des sitcoms en Europe menées par l'Ina, rien de ce qui se passe ailleurs, ou presque, n'est laissé de côté. Cela permet de repérer de nouveaux formats ou de se préparer à les affronter dans le cas de Loft Story ! ! ! C'est grâce à la disposition des chiffres de la BBC que France 2 a pu décider d'une programmation et d'un plan marketing efficace pour la série de dix épisodes de Spielberg Band of brothers, rebaptisée Frères d'armes sur France 2. Ses connaissances affinées des téléspectateurs ont amené la direction des Études de France 2 à jouer un rôle dans l'auto-promotion de la chaîne. Le média planning des bandes annonces des programmes est établi en collaboration avec la direction des programmes et la direction artistique, en fonction des objectifs décidés en amont. Des bilans sont régulièrement effectués et des études plus spécifiques réalisées, notamment sur l'efficacité de Γ auto-promotion. Dans le cas de Band of brothers2, le média planning a démarré sept semaines à l'avance avec, dans un premier temps la programmation de teasers5, puis de bandesannonces mettant l'accent sur la notoriété des producteurs (Hanks/Spielberg), la vérité historique et sur les personnages difficilement repérables. Les résultats, tant en terme d'audience (meilleur taux d'écoute de l'été) qu'en terme d'image, sont venus récompenser cette association de la direction artistique avec celles des Achats, des Programmes et des Études. HERMÈS 37, 2003

173


Sophie Benoit

Conclusion: la connaissance du public au service du public Dans le fond, une direction des études à France 2 dispose sensiblement des mêmes outils que n'importe quel autre département marketing. Nous retrouvons d'ailleurs assez souvent lors de séminaires en France ou à l'étranger nos homologues de Channel 4, BBC, Prisma, ou Mac Donald. Mais comparer un programme de France 2 à un gros hamburger fait frémir, quoique ! Que cherche-t-on avant tout? Que la deuxième chaîne nationale et première du service public soit regardée, par des téléspectateurs fidèles; que la chaîne puisse toucher tous les publics mais pas forcément à la même heure; qu'elle cultive, informe, distraie sous des formes variées, modernes ou plus classiques. Qu'elle innove aussi sans bousculer les habitudes, qu'elle donne la parole aux individus et aux institutions. Qu'elle soit le reflet de la société actuelle et enfin, comme ils disent, «que ses téléspectateurs soient fiers de la regarder».

NOTES 1.

Soit 54% d'audience cumulée, calculée à partir d'un seuil de vision de 15 minutes d'écoute consécutives (Source Telereport).

2.

Band of brothers est une série américaine de dix épisodes d'environ une heure chacun, produite par Tom Hanks et Steven Spielberg à partir de l'ouvrage de l'historien Stephen Ambrose. Elle retrace l'épopée de l'Easy Company du 506e régiment de l'armée américaine lors de la Seconde Guerre mondiale en Europe, chaque volet démarrant par des témoignages de vétérans. France 2 l'a diffusée chaque lundi soir, du 22 juillet au 19 août 2002, à raison de deux épisodes à la suite.

3.

Le teasing désigne une campagne de publicité construite autour de deux messages au moins, véhiculés successivement par le même média (affichage, radio, télévision). Le premier message ou teaser, destiné à créer un effet d'appel, d'attente, est très court (10 secondes dans le cas de Band of brothers).

174

HERMES 37, 2003


Dominique Boullier Université de technologie de Compiègne, Connaissance, organisation et systèmes techniques (Costech)

DU TELESPECTATEUR CONSOMMATEUR AU TÉLÉSPECTATEUR CITOYEN La recherche de nouvelles formes de représentation du téléspectateur plus adaptées aux enjeux civiques portés par le service public est une question récurrente, comme Ta souligné à plusieurs reprises Michel Souchon1 pour en montrer les présupposés élitistes. Une mesure civique serait ainsi faite par et pour des gens qui de toute façon ne regardent pas la télévision et la dévalorisent par rapport à la culture cultivée. Malgré notre accord avec lui, nous voulons décliner ces questions différemment selon un modèle pluraliste des principes de jugement2: - Peut-on réellement utiliser la mesure d'audience actuelle comme un outil de mise en scène civique du téléspectateur (une majorité), grâce à ce suffrage censitaire qui donne une voix à celui qui regarde une heure, et quatre à celui qui regarde quatre heures ? Le service public doit-il se contenter d'améliorer le système de mesure ou, même, doit-il tenter de faire de meilleurs résultats dans le cadre de ce système ? C'est ce que nous observons aujourd'hui, une concurrence dans la même « grandeur », le service public reconnaissant les vertus de ces méthodes de représentation des téléspectateurs. Les débats sur les techniques de mesure montrent que l'on peut faire varier ces méthodes de représentation, sans pour autant remettre en cause le principe de jugement et la qualité des êtres ainsi construits par la méthode (des «téléspectateurs-consommateurs»). C'est une des stratégies possibles du service public: ne pas créer une controverse sur les principes mêmes de la représentation mais seulement participer à l'amélioration des techniques en sachant qu'actuellement elles «profitent» toujours aux annonceurs. HERMÈS 37, 2003

175


Dominique Boullier

- Autre stratégie possible: dénoncer le modèle existant et engager la critique sur le principe dominant de la représentation du téléspectateur, en montrant que ce montage de l'audience est entièrement aligné sur un principe marchand pour fournir uniquement des équivalences dans le calcul des tarifs des espaces publicitaires. On ne pourra jamais faire dire autre chose à la mesure d'audience: l'outil formate la connaissance3. Ce n'est donc pas simplement une amélioration ou un simple déplacement qu'il conviendrait de faire pour passer à une mesure selon d'autres principes. Mais admettons aussitôt que tout autre montage demeurerait lui aussi partiel, qu'il ne dirait rien d'une supposée « audience vraie » ou d'une totalité nouvelle, supérieure aux autres modes de jugement, et qu'il n'invaliderait donc pas la mesure d'audience marchande. Notre monde est fait de principes pluriels de jugement (Walzer, Boltanski et Thévenot) et c'est de ce pluralisme qu'il faut partir pour faire cohabiter des montages différents, sans contester la justification marchande propre à la mesure d'audience. C'est pourquoi il sera difficile de faire appel, comme le proposait B. Cache4, à des principes de justice supérieurs, indépendants des contextes et des communautés, à la mode de Rawls5, pour justifier une politique de programmation audessus des autres: il doit en exister plusieurs. Toute la question tient dans la qualité du montage et dans la cohérence des choix effectués. De nouvelles questions surgissent cependant: - Le service public a-t-il les moyens de prétendre imposer un nouveau critère à tous les partenaires de la diffusion télévisuelle ? On peut douter de la capacité du service public à faire participer les sociétés privées de télévision à un modèle qui ne soit pas directement lié à leurs intérêts, à moins de mobiliser des armes institutionnelles et juridiques (un décret quelconque de plus) qui, on le sait, ne valent que lorsque le soutien des acteurs concernés a été assuré par avance. Avoir un «bon» critère d'évaluation ne suffit donc pas, il faut pouvoir le faire reconnaître autrement que par la force. Ces nouveaux montages doivent compenser le poids excessif de la seule mesure d'audience. Car c'est uniquement cette domination absolue, comme le montre Walzer, qui constitue un déni de démocratie par extension abusive d'un principe au-delà de sa sphère d'application. On peut donc considérer comme injuste l'absence de méthodes pour évaluer la qualité artistique ou la qualité citoyenne des programmes audio-visuels, et leur écrasement par la mesure marchande de l'audience. Pour explorer cela, nous tiendrons compte des dispositifs qui préfigurent déjà ces méthodes. - Le service public doit-il disposer d'un autre système de «retour», de représentation des téléspectateurs, qui serait simplement juxtaposé aux autres et qui répondrait à d'autres objectifs, pour d'autres demandeurs, avec d'autres sanctions et d'autres techniques? Il faudrait alors s'appuyer aussi sur un autre état du téléspectateur, celui de «contribuablecitoyen» par exemple. 176

HERMÈS 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Cette première étape peut être la base d'une future épreuve avec tous les autres acteurs de l'univers audiovisuel pour leur imposer aussi ce cadre de référence. Mais elle peut aussi se résumer à une cohabitation de principes différents pour des sociétés de télévision à statuts différents, cohabitation qui peut tourner à la partition complète si le service public renonçait à émarger aux recettes publicitaires par exemple, ce qui semble exclu à moyen terme mais qui est le cas ailleurs (BBC). Il faut en effet admettre que tant que la sanction des recettes publicitaires demeure essentielle à la survie de toutes les chaînes de télévision, il est hors de question de substituer un autre mode de représentation des téléspectateurs à celui qui intéresse les annonceurs. Dans ces conditions, considérer que l'on peut interpréter la mesure d'audience marchande comme un mode de représentation civique, démocratique, comme un vote, c'est sans doute faire seulement contre mauvaise fortune bon cœur et admettre que, pour avoir le pouvoir de changer les règles, il faut au moins faire ses preuves avec les règles existantes. - Il existe aussi une autre forme de stratégie, la plus forte mais aussi la plus difficile, qui consiste à produire un mode de représentation du téléspectateur qui gère la diversité des principes selon lesquels on le représente. Ce méta-positionnement est bien entendu le plus incontestable. D'une certaine façon, il s'agit là aussi de fédérer divers principes mais à un niveau beaucoup plus général, en donnant à chaque acteur la possibilité de décliner le téléspectateur selon ses intérêts propres. Nous ne voyons pas pour l'instant les ressources, ni même les modèles, qui pourraient servir de préfiguration à un tel dispositif.

Quels biens publics désirables par les plus défavorisés ? Notons pour mémoire que les questions d'évaluation spécifique au service public dépassent le cadre de la télévision6. Le principe industriel et marchand (performance et prix) a gagné le secteur public de l'audiovisuel sans qu'il ait pu réellement trouver le compromis avec le principe civique qui le conduit encore à «assumer des missions» ni performantes ni «vendables». Il existe cependant une différence de taille entre les missions du service public du transport ou de l'éducation, par exemple, et celui de la télévision: les deux premiers peuvent prétendre agir dans le sens de la justice. Pour cela, ils peuvent contredire, de plus en plus difficilement, une logique marchande ou industrielle (on subventionne des petites lignes, on offre une école gratuite pour tous, etc. ). Le transport et l'éducation offrent en effet des produits désirables dont seraient effectivement privés certains si le seul principe marchand dirigeait la fourniture de ces services. Or, pour la télévision, c'est la fourniture marchande HERMÈS 37, 2003

177


Dominique Boullier

des services qui aboutit à satisfaire les « demandes » de ceux que l'on classe habituellement comme défavorisés: l'offre standard actuelle de programmes labellisés «culturels» par exemple, n'est pas réellement désirable pour ces téléspectateurs (semble-t-il, et selon les formes actuelles de construction de la demande, précisons-le, d'où les recherches et les enthousiasmes pour les programmes nobles-et-pourtant-populaires, dits «de qualité»!!). On aboutit alors à cette situation étrange où ceux qui sont effectivement « privés » d'un type de service (une télévision «noble» culturellement) sont par ailleurs les plus pourvus dans tous les autres biens (les groupes sociaux les plus cultivés et les plus aisés). La mission du service public pour la «justice» consisterait alors, pour caricaturer, à préserver l'accès des élites intellectuelles à des programmes télévisés qui leur conviennent et qu'en tout état de cause, elles ne regarderaient pas ! La désirabilité des programmes est dans tous les cas difficile à apprécier puisque le système de mesure d'audience permet d'éviter l'épreuve marchande directe, client par client, pour la trancher de façon agrégée à un niveau institutionnel: la consommation de programmes télévisés est proche de la gratuité et, en tout cas, non indexée sur le temps de consommation ou sur le type de programme consommé (qu'il soit coûteux ou non). On aboutit ainsi à une situation où: - le principe marchand gouverne l'offre de programmes et parvient à satisfaire ainsi (disent les programmateurs à l'aide de leurs indices) le plus grand nombre; - aucune épreuve marchande réelle n'est pourtant organisée (pas de consommation payante, c'est un marché construit en l'absence du consommateur final, entre institutions); - les biens qui pourraient être proposés au nom d'un principe civique par le service public ne satisfont pour l'instant que les plus privilégiés par ailleurs, qui, de plus, ne sont pas réellement demandeurs de télévision. Le service public peut dès lors difficilement argumenter son statut particulier sur la base d'une mission vis-à-vis des plus défavorisés (ou alors en maintenant un modèle de l'acculturation - éduquer les masses - qui ne marche même plus dans le cas de l'école laïque et obligatoire). Il faudrait sans doute qu'il puisse construire une demande d'un autre ordre et non seulement un principe de jugement différent: il est en effet à peu près certain que les supposés «besoins» sont encore à créer, et que la répétition des stéréotypes ne peut à elle seule assurer une stratégie commerciale gagnante. Les chaînes privées auront d'ailleurs beau jeu de souligner que c'est précisément grâce à la pression d'un principe de gestion commercial qu'elles se trouvent dans l'obligation d'innover, alors qu'elles continuent aussi d'assurer la fourniture du «less objectionable programme».

178

HERMES 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Les modes classiques de représentation civique sont-ils adaptés ? Pour sortir de l'audience marchande strictement liée à un programme, nous devons prendre en compte les modes plus classiques de représentation civique. - Les associations de téléspectateurs. De groupes de pression, ces associations pourraient prétendre devenir de véritables espaces d'élaboration d'une opinion de «téléspectateur», ce qui fait aussi penser à l'idée parfois évoquée du «parlement des téléspectateurs». Ce serait entrer alors dans une sphère délibérément civique de la représentation du téléspectateur, calquée entièrement sur le mode parlementaire. On voit cependant rapidement les limites d'un modèle strictement électif, représentatif d'une population circonscrite uniquement par l'usage d'un bien commun. Tous les biens fournis par le service public (au moins) justifieraient la même structure, de l'éducation au transport en passant par la santé. Des associations d'usagers existent d'ailleurs dans ces domaines, mais elles restent marginales dans l'élaboration des politiques, sans parler des techniques elles-mêmes. - Le Conseil supérieur de l'audiovisuel se trouve en fait en charge officiellement de ce bien commun «audiovisuel», sans distinction cependant entre service public et sociétés privées. Sa fonction de régulation prend en compte tous les types de fournisseurs de service. Ses règles de désignation le lient à la représentation nationale et à l'exécutif issu des élections, tout en lui donnant une certaine autonomie. On voit bien cependant que ses interventions se limitent au cadre général des activités audiovisuelles et ne concernent guère le contenu même des émissions ni spécifiquement le service public. Il doit faire appliquer les règles fixées par le législateur sur la publicité, la violence, la pornographie, la représentation politique équilibrée, les quotas de films, de musique française à la radio, etc. Son travail de surveillance a posteriori, si limité soit-il, pourrait fournir une base au questionnement public sur les principes qui gouvernent la diffusion audio-visuelle en allant au-delà des règles établies ou en proposant de les faire évoluer (ce qu'il fait régulièrement, par exemple pour la violence et la pornographie récemment). Ses deux faiblesses majeures viennent d'une part de son lien inexistant avec les mondes des téléspectateurs ordinaires et d'autre part de sa difficulté à produire des indices aussi simples que la mesure d'audience, lisibles, servant de garde-fous, de repères pour les téléspectateurs. Le CSA dépend donc pour la régulation de l'audiovisuel de ses propres services de suivi mais, sur un plan quantitatif plus fin, de l'objectivation du public réalisée par la seule mesure d'audience marchande. Le pouvoir d'une autorité qui ne peut pas faire exister par la mesure son propre domaine est toujours très fragile et les catégories et présupposés encapsulés dans la mesure d'audience marchande sont hors du champ de la mission actuelle du CSA. HERMÈS 37, 2003

179


Dominique Boullier

Dans les deux cas, la représentation civique par les associations de téléspectateurs ou par le CSA, le principe marchand peut en fait rester dominant, lorsque le groupe de pression agit comme groupe consumériste, revendiquant de meilleurs produits, ou lorsque le CSA veut garantir la qualité du produit annoncé (respect des horaires, par exemple). Dans le cas de la télévision, le problème n'est pas simple dans la mesure où la controverse porte précisément en permanence sur ce que pourrait être un «bon produit». Lorsque le service public produit de sa propre initiative un porte-parole des téléspectateurs à travers l'émission du médiateur, il prétend explicitement recréer un lien de type à la fois marchand (vos critiques, le service après-vente en quelque sorte) comme l'avait fait Canal +, même s'il prétend lui donner une dimension civique. - Le paiement d'une redevance, s'il renvoie à un statut de contribuable, dit clairement que la télévision dépasse les affaires de goût privé ou même de « public culturel » et qu'elle concerne la collectivité, «l'intérêt général». On ne paye pas de redevance pour le théâtre ou pour le livre, on achète une place ou un ouvrage. Mais la redevance télé ne définit pas de bien commun, elle tend à devenir soit un impôt forfaitaire sans motivation (cf. l'ex-vignette) soit un prix pour un service selon un principe marchand. Dans tous les cas, le paiement est un lien très significatif et la façon dont il s'effectue fait varier le principe même de la représentation du téléspectateur: on peut en effet considérer que dans le cas du paiement à l'émission (pay-per-view), le téléspectateur est strictement représenté comme consommateur de produit télévisuel. Sa participation à l'univers télévisuel passe par ce paiement et sa décision peut dès lors être éventuellement interprétée comme une forme de représentation marchande du public (ils payent, donc ils aiment), en dehors de tout mode de représentation de type civique. Le paiement est essentiel dans tous les cas parce qu'il permet de dénombrer et d'analyser la population de téléspectateurs le plus exactement possible à partir de ses pratiques. - Soulignons enfin l'importance des autres médiateurs dans les liens existants avec la télévision et dans la production de la représentation des téléspectateurs: les journaux de télévision, qui sont les entreprises de presse les plus profitables, fournissent, à travers leurs courriers des lecteurs notamment, une occasion unique d'expression publique à des «téléspectateurs anonymes». Le lien qui se crée avec la télévision peut aussi passer par ces médiateurs qui préforment des opinions. Il serait aisé de rabattre le jugement de qualité civique sur un critère de notoriété, sur le monde de l'opinion, à l'aide de ces journaux et par la nature même de média de masse qu'est la télévision, machine extraordinaire à faire et défaire les réputations. Pourtant, cela ne dirait rien encore de la qualité artistique ou de la qualité citoyenne de la programmation ou d'un programme en particulier.

180

HERMES 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

Explorer des formes de représentations civiques du téléspectateur Résumons l'argument: - nous avons admis l'impossibilité d'exploiter la mesure d'audience pour autre chose que la fixation des prix du marché publicitaire; - nous cherchons à construire cependant un dispositif d'objectivation des propriétés des programmes télévisés aussi performante que l'audience mais basée sur d'autres principes; - les liens actuels avec les téléspectateurs relèvent plutôt de l'opinion et du quasimarchand; - l'émergence d'un principe civique de jugement des programmes télévisés ne peut calquer directement les procédures démocratiques de débat et de représentation sous peine de lourdeur et d'extension infinie à tous les biens communs; - de plus, la construction de repères communs et la définition des sanctions doivent être effectuées en même temps, de façon à assurer à ces instances autre chose qu'un rôle consultatif où se confronteraient les opinions politiques déjà constituées a priori (un pur décalque des partis ou syndicats reconnus). Nous sommes plus proches en fait des situations de controverses, centrées sur un problème donné, dont les formes de représentation des membres doivent être adaptées au cas par cas7; - les bases fournies par le rôle central du CSA doivent pouvoir être exploitées et ses deux faiblesses corrigées. Le CSA peut fort bien se doter lui-même d'une instance de consultation qui serait triple (et qui irait au-delà de la Loi d'août 2000 qui instituait un Conseil consultatif des programmes, composé de téléspectateurs8): - les représentants auto-déclarés des téléspectateurs (les associations sous réserve de vérification de leur activité réelle et de leur poids en termes d'adhérents); - les «correspondants du CSA», téléspectateurs ordinaires constitués en panels reliés par des techniques spécifiques, différentes de celles adoptées par la mesure d'audience; - des intervenants ad hoc, constitués provisoirement selon le type de problème mis en débat (ex: la présentation de telle minorité dans les émissions de télévision en général). Cette troisième partie assure l'ouverture constante des membres de l'instance pour éviter un monopole de la parole citoyenne, soit de la part des associations, soit de la part des techniques de représentation à base de panels. Ces trois méthodes de représentation combinées permettent de délibérer sur tout problème émergent et de proposer des cadres réglementaires nouveaux sur des thèmes encore non encadrés. De ce fait, par le pouvoir de suivi du CSA, le respect des principes HERMÈS 37, 2003

181


Dominique Boullier

civiques qui sont dégagés par ces assemblées peut être contrôlé. Le pouvoir de sanction est aussi indispensable dans les termes actuels (ou même étendus), avec en point de mire, le renouvellement ou non des attributions de chaînes et de fréquences. La représentation civique ainsi instituée doit se doter de moyens de sanction aussi puissants que ceux fournis par les recettes publicitaires pour la mesure d'audience. Comme c'est le cas pour l'audience marchande qui applique ses règles à tout l'audiovisuel, le CSA pourrait prétendre porter le principe de qualité civique en l'étendant à tout l'audiovisuel, puisque son domaine de compétence est général. Nous sortons ainsi d'une séparation de sphères (à la Walzer) entre service public et sociétés marchandes pour adopter une approche en termes de principes supérieurs communs (à la Boltanski et Thévenot) qui s'appliquent tous à tout l'audiovisuel, selon des compromis différents cependant. Les chaînes privées ont aussi des obligations civiques (et elles le clament souvent, d'ailleurs) et les chaînes publiques continuent pour l'instant à vivre de la publicité. Les formes délibératives de cette instance de consultation que nous proposons dépassent les formes classiques dans le monde civique car nous introduisons un système de panel de citoyens, «correspondants du CSA», équipés techniquement pour pouvoir donner des avis ou recueillir des données les concernant en permanence. C'est ici que les leçons de la mesure marchande de l'audience peuvent être largement exploitées de façon à rendre opérationnels les principes de jugement civique9. Une objectivation de l'avis du citoyen doit être aussi performante et exploitable que la mesure marchande si elle veut prétendre jouer un rôle dans les stratégies et décisions de programmation. La constitution d'un panel statistiquement représentatif de la population (et de segments de population selon les objectifs) ne pose guère de problèmes. La connexion technique est déjà mise en œuvre par les techniques de l'audience. Tout le problème réside dans les indicateurs qui peuvent constituer un «indice agrégé de qualité civique» et dans l'état dans lequel on place le téléspectateur pour fournir les éléments d'information. Le critère du «je regarde» ne répond pas à nos objectifs puisque nous prétendons demander explicitement au téléspectateur de fournir un jugement. Nous avons longuement étudié la façon dont s'exprimaient les jugements des téléspectateurs dans des situations d'enquête et nous savons à quel point ils peuvent être différents des goûts et des pratiques10. Nous pouvons faire le pari cependant que des méthodes anonymes, régulières, de fourniture de jugement peuvent réduire ces écarts. Il est possible de demander explicitement à des téléspectateurs de se prononcer sur certains critères de qualité, encore à construire. Les déclarations seront nécessairement fermées de façon à permettre le calcul. C'est ici que la différence avec les formes traditionnelles de la représentation civique apparaît: il faut parvenir à constituer un nouveau «centre de calcul»11 dont les limites seraient certes reconnues mais partagées par les participants de cet univers. Sur cette base, des «labels civiques» pourraient être donnés à des programmes récurrents. Cette politique 182

HERMÈS 37, 2003


Du téléspectateur consommateur au téléspectateur citoyen

des labels, bien connue dans le monde alimentaire, correspond typiquement à des univers où la mesure objective d'un acte d'achat ne peut suffire à définir une garantie de satisfaction. Le label incorpore la dimension subjective du jugement en lui donnant le poids issu de l'accord construit par les acteurs. Plus encore, cette dimension subjective peut elle-même faire l'objet de calcul et de modélisation, comme on le fait en mathématiques du flou appliquées à l'évaluation subjective12. Cette politique de labels permet de prendre pied dans l'ordre de la prescription vis-à-vis du public et, dès lors, de peser sur le marché lui-même13. C'est donc un puissant levier face à la mesure marchande de l'audience qui n'est jamais que rétrospective. Mais il faut pour cela monter un dispositif particulièrement rigoureux sur le plan des indices, et producteur de conventions14 entre les acteurs15.

Conclusion La sortie de la «dictature de l'audimat» suppose paradoxalement d'admettre à la fois sa réussite et sa justification dans le monde marchand qui est le sien. Il est cependant possible, au prix d'un vrai travail d'alignement de médiations16, de faire tenir une mesure permettant le débat sur les principes civiques qui doivent gouverner le bien commun qu'est la diffusion audiovisuelle. Sans reprendre pour autant le thème de l'exception culturelle, il est possible de reconnaître la nécessité vitale pour une démocratie de préserver la diversité des principes de jugement dans ce domaine (comme dans d'autres domaines). La mesure agrégée sous forme de «label civique» peut être construite de façon méthodique pour équiper le débat public et contrebalancer la mesure de l'audience. Il est en même temps possible de reconstituer les institutions de débat à partir des éléments déjà existants pour répondre aux exigences de représentativité du monde civique sans calquer la mesure d'audience marchande mais en exploitant son exigence de performance, avec toutes les limites qui conviennent.

NOTES 1.

SOUCHON, M., Petit Écran, grand public, Paris, La Documentation française, 1980.

2.

Nous nous inspirerons ici des approches de WALZER, parlant de sphères et de celles de BOLTANSKI et THÉVENOT fondant des principes supérieurs communs, ce qui constitue deux façons différentes de conjuguer le souci pluraliste de la justice. WALZER, M., Sphères de justice. Une défense du pluralisme et de la démocratie, Paris, Le Seuil, 1997 (l re édition, 1983), BOLTANSKI, L., THEVENOT, L., De la Justification. Les économies de la grandeur, Paris, Gallimard (NRF), 485 p., 1991.

HERMÈS 37, 2003

183


Dominique Boullier

3.

Nous étendons ainsi un principe posé par Goody pour l'écriture, GOODY, J., La Raison graphique: la domestication de la pensée sauvage, Paris, Minuit, 1979, 274 p.

4.

CACHE, B. «Rawls regarde la télévision» in Médiaspouvoirs, n° 14, avril-mai-juin 1989.

5.

RAWLS, J., A Theory of justice, Oxford, Oxford University Press (édition originale, 1972).

6.

Par exemple nos travaux dans le transport: «Y a-t-il un client dans le réseau. Techniques de communication et lien social dans le transport» (avec Josée BETAT), Rennes, Lares, 1987 et «Portrait du citoyen client-roi en carte-à-puce», IRIS-TS, 1989.

7.

Nous rejoignons ici CALLON, M., LASCOUMES, P., BARTHE, Y, Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Le Seuil, 2001.

8. Au moment de conclure cet article, est paru le rapport revigorant de Catherine Clément qui préconise une mise en œuvre de cette loi, avec tirage au sort de 50 jurés ou des représentants de téléspectateurs. Notre approche recombine ces deux solutions, y ajoute d'autres impératifs et étend surtout la sphère de validité de ses avis à tout l'audiovisuel et non au seul service public. 9.

C'est ce qu'a tenté de faire Médiamétrie avec son audimètre ou que projette JOSÈPHE, P., avec son « Qualimat », qui ont encore à faire leurs preuves mais qui montrent bien la tendance.

10. Voir nos travaux avec LEGRAND, M., GOURIOU, E, réalisés notamment en contribution à une étude de l'Ina pour le SJTI (Étude préalable à la mise en place d'indicateurs concernant les attitudes des téléspectateurs à l'égard des chaînes publiques, 1990) publiés dans «La conversation télé» (à paraître, 2003). 11. LATOUR, Β., «Les vues de l'esprit. Une introduction à l'anthropologie des sciences et des techniques», Culture Technique, n° 14, 1985. 12. Par exemple, ZALILA, Z., FATENE, M., «Opérateurs flous en théorie des expertons: sémantique d'une décision de groupe en évaluation subjective». Actes 7e conférence internationale IPMU, Information Processing and Management of Uncertainty in Knowledge-based Systems, Paris, 6-10 juillet 1998, vol. II, p. 1691-1699. 13. N'oublions pas que les autorités catholiques fournissent des recommandations pour les films et que cela aide certains à se repérer. 14. Nous renvoyons sur ce point à tous les travaux des analystes des conventions en économie, cf. ORLEAN, A. (dir. ), Analyse économique des conventions, Paris, PUF, 1994. 15. C'est dans ce sens que les activités centrées sur l'audience, dans le cadre du Laboratoire des Usages (Lutin) en cours de création à la Cité des Sciences et de l'Industrie, seront développées. 16. HENNION, Α., La Passion musicale. Une sociologie de la médiation, Paris, A. -M. Métailié, 1993.

184

HERMES 37, 2003


Entretien avec Marc Tessier France

Télévisions

LE TÉLÉSPECTATEUR, AU CŒUR DE LA TÉLÉVISION PUBLIQUE Propos recueillis par Régine Chaniac le 26 août 2003· Question: Vous présidez depuis quatre ans le groupe France Télévisions, mais vous avez aussi une expérience de la télévision payante, ayant été président de Canal Plus International pendant de longues années. Comment définiriez-vous la spécificité du rôle de la mesure d'audience en ce qui concerne la télévision publique ? Aucun média ne peut faire l'économie d'une réflexion et d'un choix sur les modes de mesure et les critères qui lui permettent de suivre la réalisation de ses propres objectifs. S'agissant d'un service de télévision plus précisément, aucun ne peut faire l'économie d'une mesure de son audience. Deux questions se posent alors: Quelle utilisation en sera faite ? Et sur quel instrument de mesure s'appuyer? La réponse à ces questions diffère nécessairement d'une chaîne à l'autre, mais il est impensable de piloter un programme sans critères ni instruments de mesure d'audience. Dans le cas d'une chaîne payante, il est fondamental de mesurer l'intensité de la relation nouée avec le téléspectateur abonné et de l'évaluer quantitativement. Le taux de consommation des programmes reflète le mieux cette satisfaction. Du fait des mécanismes de multidiffusion, le taux d'audience instantané d'un programme est en revanche moins significatif. À Canal Plus, on est très soucieux de classer les films en fonction de l'audience totale qu'ils obtiennent toutes diffusions incluses, et de le comparer au coût pour la chaîne. Il doit y avoir en effet une forte corrélation entre le coût d'un programme et sa consommation effective par les abonnés. HERMES 37, 2003

185


Entretien avec Marc Tessier

Une analogie entre Canal Plus et la télévision publique est utile à la réflexion: en effet, dans une certaine mesure, la télévision publique est financée également par le téléspectateur. Au-delà de ce point de départ commun, la différence entre les deux télévisions est essentielle. La réflexion de la télévision publique sur la contrepartie qu'elle doit offrir au versement d'une somme annuelle par la totalité des téléspectateurs relève en effet d'un débat général orchestré par les représentants démocratiques, les Autorités représentant l'Etat, et non plus seulement d'un raisonnement d'entreprise comme à Canal Plus. Dans le cas des chaînes commerciales, la problématique de gestion dépend d'abord de l'annonceur. La mesure sera donc forcément volumétrique et intègrera un élément qui n'existe pas pour la télévision publique: le rapport entre l'audience et le coût des programmes. La télévision publique n'est pas tenue en effet de hiérarchiser ses programmes selon un tel rapport. Je développerai cela plus loin. On peut enfin évoquer par souci d'exhaustivité le cas particulier des chaînes thématiques. Fonctionnant selon un principe plus proche de celui de Canal Plus, elles ont pour critère essentiel l'audience cumulée, au moins pour celles dont la majorité de leurs recettes provient d'un reversement des opérateurs commerciaux du câble et du satellite, et donc du client final. La problématique consiste alors à justifier le montant de la recette par le nombre de téléspectateurs qui ont un contact régulier avec la chaîne, qui savent l'identifier et peuvent l'intégrer dans leur décision de renouveler leur abonnement à l'offre de bouquet le moment venu. Question: Est-ce à votre initiative que le Contrat d'objectifs et de moyens (COM), conclu entre France Télévisions et l'État pour la période 2001-2005, donne explicitement aux chaînes publiques un objectif en matière d'audience? En effet, et je suis convaincu que la télévision publique ne peut se soustraire à une évaluation en termes d'audience. Nous sommes tout d'abord tenus de rendre compte directement ou indirectement au téléspectateur qui paie la redevance de l'utilisation qu'il fait des services et des programmes diffusés avec cet argent. D'où un débat sur l'audience qu'on ne peut légitimement pas refuser. Compte tenu des sommes engagées par l'Etat, qui sont considérables même si tout le monde les considère comme insuffisantes, il serait intolérable que les trois canaux de la télévision publique n'atteignent en cumulé qu'une part d'audience de 10 ou 1 5 % . Il est donc nécessaire de fixer un seuil. Ensuite l'Etat a organisé une offre plurielle, différente d'une chaîne à l'autre, ce qui signifie qu'il ne fixe pas les mêmes objectifs de programmes et de public à chacune d'entre elles. Il faut trouver un moyen de les caractériser et donc de formuler des objectifs d'audience distincts. Sinon la tendance naturelle de chacune serait de faire le même type de 186

HERMÈS 37, 2003


Le téléspectateur, au cœur de la télévision publique

programmes pour le même type de publics, avec la même part d'audience, or ce serait contradictoire avec la diversification de l'offre. Une troisième raison est d'ordre interne. L'État a créé une holding et demande aux dirigeants et au Conseil de celle-ci de fixer des lignes éditoriales dans le cadre du Cahier des charges; il est normal qu'en retour la holding demande à chaque chaîne un compte rendu sur l'audience. Il s'agit d'un instrument d'évaluation indispensable. Question: Il est très intéressant à ce titre que le Contrat d'objectifs et de moyens retienne l'indicateur de l'audience cumulée plutôt que celui de la part d'audience ? L'État a en définitive laissé à France Télévisions le soin de piloter cette réflexion. La première question, déjà évoquée, se formule ainsi: «Puisque 100% des téléspectateurs paient la redevance, considère-t-on souhaitable qu'une majorité d'entre eux, et dans quelle proportion, aient un contact régulier à définir avec les programmes de France Télévisions ? » D'où la réponse figurant dans le Contrat d'objectifs et de moyens, 50 % par jour, 75 % en une semaine. On pourrait aller plus loin dans l'analyse, en partant de la structure des publics et de la population, et bâtir des indicateurs d'audience cumulée plus évolués encore, qui tiennent compte du souhait des pouvoirs publics que certaines catégories de population aient des contacts également avec des programmes emblématiques de la télévision publique. Par exemple, on pourrait calculer l'audience cumulée sur les jeunes vis-à-vis d'un genre comme l'information, pour essayer de faire jouer pleinement son rôle à la télévision publique... ou d'autres idées. Les critères et les seuils de tolérance pourraient évoluer dans le temps, en fonction de multiples paramètres comme la structure générale de l'offre télévisuelle ou l'évolution du montant de la redevance. Ce type d'indicateurs apporte une souplesse aux dirigeants de la télévision publique puisqu'il permet de s'affranchir de l'appréciation programme par programme, qui est dominante pour la télévision commerciale. À l'intérieur d'un même genre, il est pour nous naturel de compenser des émissions difficiles par des émissions plus fédératrices. En pratique, cela aboutit, pour certains genres prioritaires de la télévision publique, comme l'information, la fiction en première partie de soirée et les magazines de société, à fixer des fourchettes d'audience, compte tenu de leur potentiel propre. Des critères semblables pourraient aussi exister pour le sport et la fiction nationale et un plancher d'audience par type de programme et par chaîne pourrait être fixé. Lorsqu'une émission de France 2 obtient moins de 10 à 12 % de part d'audience, surgit un problème: le téléspectateur ne s'attend pas à cela sur sa chaîne. Et cela est cohérent avec l'image d'une chaîne qui peut prendre des risques, qui a une diversité de programmes, et qui intègre une dimension culturelle, mais qui ne doit pas donner au téléspectateur le sentiment qu'elle fait des choix contre lui. HERMÈS 37, 2003

187


Entretien avec Marc Tessier

Par contre, j'ai toujours refusé que l'on fasse, par programme ou par genre de programme, un rapport entre son coût et la recette publicitaire qu'il génère. Je ne vois pas pourquoi la télévision publique s'imposerait la même contrainte que ses concurrents, celle du rapport entre le coût et la recette, alors que la sienne doit être l'audience cumulée ou le positionnement moyen. Question: Quand vous avez décidé d'arrêter Âge sensible, qui avait des résultats d'audience décevants, n'est-ce pas aussi en tenant compte de V importance de l'investissement? Age sensible1 était une fiction qui avait vocation à être récurrente. Or nous avons constaté que l'émission ne rencontrait pas ses objectifs de cible et qu'elle n'avait aucune chance d'y parvenir. Ce constat étant fait, il était opportun de tenter une autre émission afin de mieux réaliser les objectifs de la télévision publique. La question est de savoir quand il faut prendre une telle décision, sachant qu'un des atouts de la télévision publique est de pouvoir prendre son temps et d'avoir plus de sérénité dans ses choix, sans remettre en cause son équilibre économique comme c'est le cas pour une chaîne commerciale. D'une manière générale, les dirigeants de la télévision publique ont à répondre à cette question: À quel moment doit-on prendre la décision de remplacer un programme, quelle que soit l'estime dans laquelle on le tient, par rapport aux objectifs d'une télévision publique ? Et est-ce que le critère de l'audience est le seul critère ? Un changement de grille peut être motivé par deux facteurs. Tout d'abord, la conviction d'une érosion continue de l'audience du programme à laquelle on ne voit pas le moyen de remédier. Ensuite, l'espoir que l'on met dans un nouveau programme de remplacement pour atteindre les mêmes objectifs. On ne supprime pas une émission uniquement parce qu'elle s'use, mais parce qu'on a le sentiment qu'il y a une alternative différente et crédible à proposer. Pour un responsable d'antenne, le changement d'une émission de longue tradition est toujours une question délicate qu'il faut gérer en douceur. Question: Toujours dans le COM, les objectifs d'audience s'intègrent dans la mission plus générale de «placer le téléspectateur au centre du dispositif». Quels sont les moyens mis en œuvre par France Télévisions pour renforcer le lien entre téléspectateurs et les chaînes publiques ? Nous avons tout d'abord posé un droit pour le téléspectateur à obtenir une réponse, lorsqu'il formule individuellement une critique ou pose une question. Ensuite, il y a un droit du téléspectateur à s'assurer que la télévision publique accepte un débat et un réexamen interne lorsque cela est nécessaire. Pour répondre à ces droits, la télévision publique doit avoir à la fois un certain état d'esprit, mais aussi un dispositif. Le système mis en place est double. D'une part, les médiateurs sont le truchement du public, avec un statut qui garantit leur indépendance. D'autre part, le traitement par le 188

HERMÈS 37, 2003


Le téléspectateur, au cœur de la télévision publique

Service des relations avec les téléspectateurs (SRT) des questions posées par ceux-ci nous permet de répondre à chacun dans le plus grand respect. Un rapport de synthèse quotidien est établi et adressé à l'ensemble des responsables des chaînes pour les familiariser avec ce nouveau service et leur fournir un précieux retour d'information. À la rentrée, sur France 5, nous allons proposer une émission sur la redevance, à partir des remarques faites par les téléspectateurs: voilà l'usage qui est fait de la redevance, qu'en pensez-vous et quelles sont vos critiques ou vos suggestions ? Au-delà de la diffusion, nous nous engagerons à répondre à toutes les questions et remarques dans un délai d'une semaine. Question: Vous paraît-il possible de s'appuyer sur un jugement des téléspectateurs, qui s'exprimerait au-delà des réactions spontanées de mécontentement, pour prendre des décisions en matière de programmes ? Il y a plusieurs façons de prendre en compte le jugement des téléspectateurs dans la conception des programmes. Pratiquement toutes les émissions de France Télévisions font l'objet, entre une et deux fois par an, voire plus s'il y a des problèmes, d'un test d'appréciation sur des panels de téléspectateurs. C'est une première façon d'amener le téléspectateur à formuler un jugement de façon qualitative et méthodique à la fois. La seconde est d'organiser une consultation régulière auprès d'un plus large échantillon. France Télévisions est en train d'établir un baromètre mensuel, à la fois global et par genre de programmes. Je ne crois pas en effet à un indice de satisfaction qui serait calculé pour chaque émission. Plus l'auditoire d'un programme est restreint, plus il a tendance à être satisfait. Pour surmonter cet obstacle méthodologique, il faut raisonner non plus par programme mais par genre et par période. Nous testerons une formule prochainement. Question: Comment conciliez-vous cette exigence énoncée clairement au début de l'entretien, que la télévision publique doivent satisfaire la plus grande fraction du public, et les responsabilités que vous avez en termes d'offre, dans le domaine notamment des programmes culturels ? Ce qui était un problème aigu d'arbitrage au sein d'une même grille il y a vingt ans, peut être traité de manière plus satisfaisante aujourd'hui alors qu'il n'y a plus seulement trois chaînes de télévision. En première partie de soirée, l'offre globale de France 2, France 3 et Arte comporte régulièrement des émissions avec un contenu culturel, du spectacle vivant, des débats, etc. Pourquoi faudrait-il que toutes les chaînes publiques fassent la même chose? Ne faut-il pas profiter de la diversification, surtout au regard des financements publics investis ? HERMÈS 37, 2003

189


Entretien avec Marc Tessier

Ensuite, il faut considérer la culture dans ses différentes dimensions. Si vous observez ce que diffusent France 2 et France 3 en première partie de soirée: des émissions politiques, des émissions telles que Des Racines et des ailes ou Thalassa, des magazines comme Envoyé spécial, et des grandes fictions patrimoniales, on peut considérer que la majorité des soirées a une finalité culturelle. On ne peut pas dire que l'offre publique ne comporte des programmes culturels que «la nuit et l'été», comme l'a prétendu Catherine Clément dans son rapport2. Question: Comment voyez-vous l'avenir de la télévision publique, dans un contexte d'érosion générale des chaînes généralistes, confrontées au développement des chaînes thématiques accessibles aujourd'hui par câble et satellite et demain, par d'autres modes de diffusion (numérique terrestre, ADSL, etc. ) ? Nous devons intégrer dans nos perspectives le fait que les téléspectateurs, dans une proportion non négligeable, disposent d'une offre élargie. Doit-on faire une télévision pour ceux qui sont abonnés au câble et au satellite ou doit-on faire une télévision publique pour ceux qui, ne l'étant pas, doivent avoir une offre généraliste? Nous risquons de perdre beaucoup d'intérêt pour la première catégorie si nous nous centrons trop sur la seconde et réciproquement, d'être insatisfaisant pour celle-ci en termes de diversité de l'offre si nous sacrifions des genres offerts largement par les chaînes de complément. Cette difficile question ne s'est pas encore posée de manière trop aiguë aussi longtemps que la pénétration du câble et du satellite était inférieure à un tiers des foyers, mais elle va devenir cruciale. Nous n'avons pas encore véritablement anticipé tous les choix de programmation qui vont se poser. Dans deux domaines, l'information et les programmes pour enfants, nous avons maintenu une offre conséquente, nonobstant la présence de chaînes thématiques très performantes dans ces domaines, car nous avons parié sur la surabondance de l'offre, mais cette position pourra ne pas être toujours la même si une écrasante majorité de la population est exposée à une offre élargie.

NOTES 1. Age sensible est une série de 26 minutes, diffusée du lundi au vendredi à 17 h30 sur France 2, du 2 septembre au 18 octobre 2002. Destinée aux adolescents, cette série française a été arrêtée faute d'audience, se situant à moins de 11 % sur les 15-24 ans. 2.

Rapport de la mission «d'évaluation, d'analyse et de propositions concernant l'offre culturelle de France 2 et France 3», confiée à Catherine Clément par Jean-Jacques Aillagon, ministre de la Culture et de la Communication, et remis en décembre 2002, sous le titre La Nuit et l'été.

190

HERMES 37, 2003


IV. NOUVEAUX MEDIAS ET INTERNET: DE LA NOTION DE PUBLIC À CELLE D'USAGER

Jean-Pierre Jézéquel Josiane Jouët Hubert Bouchet Alain Le Diberder


Jean-Pierre Jézéquel Institut national de l'audiovisuel (Ina)

NOUVELLE ECONOMIE: ENTRE UNITÉ ET DIVERSITÉ L'expression «nouvelle économie» 1 est apparue dans la seconde moitié des années 1990; relayée par les journalistes, particulièrement ceux spécialisés dans l'actualité financière, elle a connu rapidement un succès certain. La galaxie de différents secteurs et activités englobée sous le vocable de nouvelle économie peut être aussi désignée par les expressions, nouvelles techniques de l'information et de la communication, société de l'information, troisième révolution industrielle, Internet ou ère du numérique, cette liste n'ayant aucune prétention exhaustive. Avant même tout effort de mise en ordre des idées et des catégories, l'observateur extérieur, mais curieux, ressent intuitivement un sentiment de nébulosité et d'hétérogénéité, suggéré par les expressions elles-mêmes. Il convient cependant de définir un champ, afin que le lecteur sache un peu plus précisément de quoi l'on va lui parler. Quatre secteurs d'activité nous semblent baliser, à peu près, le champ exploré ici: informatique, électronique, télécommunications, communication audiovisuelle2. L'élargissement de la logique informatique au traitement et à la circulation de l'information dans ces différents domaines cristallise une communauté technologique popularisée un temps sous l'étiquette de «convergence». Ces différentes sphères ont aussi en commun un certain nombre de caractéristiques économiques qui fondent leur rassemblement dans un même vocable, à défaut d'un même concept; mais la grande diversité des réalités de fonctionnement, des systèmes d'échanges des biens et services concernés demeure. À travers cette diversité, s'impose aussi celle des stratégies de marchés et des instruments de régulation, telles que la mesure de l'audience ou la connaissance de la demande. HERMÈS 37, 2003

193


Jean-Pierre Jézéquel

Des caractéristiques économiques communes Nous en relèverons trois, étroitement imbriquées les unes dans les autres. Les échanges dans la nouvelle économie sont «numérisés», c'est-à-dire exprimés en 0 et en 1, selon les règles du langage informatique. Cette aptitude à la numérisation, qui simplifie les opérations de traitement de l'information, autorise de très importantes économies d'échelle, leur première caractéristique. Dans le domaine des biens d'information, les coûts fixes de production peuvent être élevés; que l'on pense au développement de nouveaux logiciels, par exemple. Mais par la grâce de la numérisation, les coûts de reproduction et de distribution sont quasi nuls. Les coûts fixes peuvent se répartir sur une production qui augmente exponentiellement3. De plus, sous l'effet de ce qui est communément nommé la mondialisation, le potentiel de clients augmente au gré de l'élargissement des réseaux qui sont eux-mêmes au cœur de la nouvelle économie. Une sorte de cercle vertueux se met en place entre le développement des réseaux numérisés qui augmente la demande potentielle et le prix des biens échangés qui diminue au fur et à mesure de cette augmentation. Cette économie d'échelle se transforme en plus-value pour le réseau lui-même: de plus en plus de biens peuvent être échangés, à des prix de moins en moins élevés et à un nombre grandissant de clients. Cette valorisation des réseaux est connue sous le nom de Loi de Metcalfe qui s'énonce ainsi: la valeur d'un réseau augmente à proportion du carré de ses membres4. Alors que, pour les biens traditionnels, le développement du réseau de distribution entraîne une propension aux déséconomies d'échelle (accroissement des coûts de gestion et d'organisation), dans la nouvelle économie c'est le contraire: l'augmentation de la distribution se traduit par des économies d'échelle. Le plomb se transforme en or. Pour certains biens enfin, tels les logiciels informatiques, plus le nombre d'utilisateurs est élevé, plus la valeur de ce bien augmente: il devient un «standard», celui qui sera recherché prioritairement. En second lieu, le développement de la nouvelle économie est un facteur d'augmentation de la productivité. La plupart des réussites en matière de distribution de biens et services dans la nouvelle économie proviennent de la destruction de poches de rétention de productivité5. Il existe traditionnellement dans tout système de production ou de distribution des frictions dans leur fluidité; ces frictions peuvent même se traduire par des niches monopolistiques, ou oligopolistiques, fondées sur le manque de transparence du système productif lui-même. La nouvelle économie permet une transparence de l'information et un accès direct au client sans intermédiaires plus ou moins inutiles. Toute fonction d'intermédiation voit, de toutes les façons, ses marges écrasées. Les possibilités qu'ouvre la nouvelle économie dans le domaine de la productivité commencent à avoir leur 194

HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

traduction dans les statistiques macro-économiques. Les chiffres de la productivité américaine montre l'augmentation sensible de celle-ci à partir du milieu des années 1990. C'est surtout la productivité du travail qui augmente retrouvant des niveaux (2, 2 % par an en moyenne entre 1995 et 2000) inconnus depuis les années 1970; de son côté, la productivité du capital conserve sa tendance trentenaire à se dégrader au fur et à mesure de son accumulation6. L'accélération de la productivité globale ne s'observe pas encore de façon aussi nette en Europe. Compte tenu d'une diffusion plus tardive, par rapport aux Etats-Unis, des technologies d'information et communication, ce n'est guère surprenant. Il faut aussi préciser que les progrès observés de productivité sont la résultante de deux phénomènes. D'une part, la croissance de la productivité dans le secteur informatique; plus ce secteur a de l'importance dans une économie nationale (cas des États-Unis par rapport à l'Europe) et plus cet élément va peser lourd. D'autre part, la croissance de productivité due à la diffusion des nouvelles technologies d'information dans les autres secteurs de la vie économique; dans ce registre, les aspects d'organisation des entreprises (ou des secteurs) et la familiarité du monde du travail avec la logique informatique peuvent peser lourd, et ce poids n'est pas strictement proportionnel au niveau d'investissement dans le hard ware des nouvelles techniques. Enfin, la troisième caractéristique est l'accroissement de la concurrence que l'on peut observer dans tous les secteurs touchés par les nouvelles techniques de l'information. La facilité d'accès à l'information (tarifaire, par exemple) et plus encore son accessibilité immédiate aboutissent à nous rapprocher du tableau idyllique d'un marché transparent, archétype de la concurrence pure et parfaite décrite par les économistes classiques des XVIIe et XVIIIe siècles. Il n'est pas nécessaire d'être un virtuose de l'informatique pour s'informer dans un temps record des prix pratiqués par les différents distributeurs d'un bien d'équipement, par exemple. Ce renforcement de la concurrence profite au consommateur final en comprimant à leur strict minimum les marges bénéficiaires des entreprises, que celles-ci soient dans la production ou la distribution du bien ou service concerné par le nouvel environnement «numérique» 7 . Ce caractère débouche sur un des premiers paradoxes de la nouvelle économie: il est très difficile pour les entreprises qui s'y engagent de dégager des bénéfices de manière durable. On observe ici une contradiction qui constitue le talon d'Achille de cette nouvelle ère. Les coûts de recherche et développement dans les techniques modernes de l'information constituent, comme on l'a déjà évoqué, la majeure partie des coûts de production, ceux de fabrication et de distribution étant minimes. Une telle structure de coût exige de pourvoir bénéficier pendant un certain temps d'une forme de rente de situation pour amortir les dépenses engagées. Les protections que vont s'efforcer de construire les entreprises en question (en termes, par exemple, de brevets ou de droits d'auteur) entrent en contradiction avec les caractères fondamentaux de cette nouvelle économie. En résumé, la nouvelle économie crée les conditions d'une concurrence pure et parfaite qui ne permet plus aux entreprises qui s'y spécialisent de se rentabiliser. HERMÈS 37, 2003

195


Jean-Pierre Jézéquel

L'engouement boursier pour les entreprises investissant dans la nouvelle économie n'était pas totalement absurde, tout au moins au départ, car fondé sur l'analyse de caractéristiques qui pouvaient, en bonne logique, apparaître comme de véritables atouts pour ces entreprises. Outre des phénomènes de surinvestissement conjugués à des exigences complètement utopiques de retour sur investissement, les espoirs de rentabilité se sont avérés non seulement illusoires à court terme, mais de plus en plus minces dans le moyen et le long terme. On pourrait énoncer l'aphorisme: la nouvelle économie, ce sont surtout de nouvelles économies, «économies» étant pris ici au sens étroit d'épargnes ou de moindres dépenses.

Une disparité de situations et de fonctionnements On peut donc identifier quelques caractéristiques très générales qui définissent cet objet aux contours flous que constitue la «nouvelle économie». Ce terme peut trouver une certaine légitimité terminologique en ce que les secteurs concernés et inventoriés en début d'article sont considérés comme les secteurs moteurs du développement global de l'économie, et ce pour une période de plusieurs dizaines d'années. Ils sont appelés à jouer le rôle qu'ont pu jouer le secteur des chemins de fer au XIXe siècle et le secteur pétrolier et automobile au XXe siècle. Au moment de l'émergence de ces secteurs, on aurait pu imaginer que certains emploient à leur sujet le terme de nouvelle économie. En l'occurrence le terme se justifie à la fois par la montée en puissance d'un secteur d'activité nouveau et par ses conséquences sur les autres secteurs de l'économie. Au même titre que le développement des moyens de communication ferroviaire et automobile a considérablement influencé et bouleversé les structures de la production et de la distribution des autres secteurs, il en est de même avec le développement des techniques de numérisation de l'information. Le manque d'unité et d'homogénéité des secteurs au cœur de la nouvelle économie est concomitant d'une grande variété de conséquences dans des secteurs d'activité très divers par ailleurs. Au bout du compte, il est logique de constater une aussi grande diversité des instruments de régulation correspondant tant aux nouveaux secteurs qu'aux secteurs traditionnels réorganisés par les nouveaux moyens d'information. Pour illustrer ce propos, on peut employer une image un peu triviale qui renvoie à l'analogie avec l'essor de l'industrie automobile. Le concessionnaire d'une marque d'automobile qui vend un véhicule, le vendeur d'essence à la station-service, la société autoroutière qui encaisse les péages, le transporteur routier qui facture moins cher que le rail les mètres cubes de marchandises qu'il transporte sont tous des «enfants» de l'ancienne économie fondée sur l'énergie pétrolière et le moteur à explosion. Leurs logiques commerciales, leurs modes 196

HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

d'encaissement des recettes et les instruments de mesure de leur activité sont évidemment différents; et personne ne s'attend à ce que leur dénominateur commun pétrolier ait vocation à unifier les indicateurs qu'ils utilisent pour leurs activités spécifiques. Il en est de même avec la nouvelle économie et ses différents secteurs.

Internet, emblème de la nouvelle économie Il n'est pas nécessaire de s'attarder outre mesure sur les différences qui peuvent exister dans les logiques d'échanges et de marché de secteurs tels que la vente de microordinateurs, le marché des composants électroniques ou la location de faisceaux hertziens. Aussi nous nous concentrerons sur le secteur de l'Internet et des services qui y sont proposés. Peu importe pour notre propos que l'on considère Internet comme un média; bornons nous à constater que l'on échange sur la toile des informations et des contenus, plus ou moins organisés et mis en forme, au milieu d'autres biens ou services de toute nature. Il est évident que l'ensemble de ce marché (au sens strict de mise en rapport entre une offre et une demande) ne dessine pas un modèle économique unique. Ce trait de caractère est d'ailleurs souvent traduit par le slogan illusoire, «Internet n'a pas encore trouvé son modèle économique»; que l'on est tenté de compléter par, «... et il ne le trouvera jamais». On ne voit vraiment pas pourquoi l'accès à des pages de journaux ou magazines, le téléchargement de programmes audiovisuels ou de jeux vidéo, la fourniture de services bancaires, l'achat de prestations telles que voyages ou billets de transports, les paris en ligne, les sites de mises aux enchères ou de petites annonces, le commerce électronique de biens matériels, la recherche de documents pédagogiques ou culturels, la prise de connaissance de textes réglementaires, ou l'utilisation de la messagerie électronique devraient relever d'un modèle unique de transaction. Dans cet inventaire à la Prévert, certains exemples n'ont même pas vocation à échange commercial. La communauté des pionniers d'Internet (essentiellement des chercheurs et des universitaires) a promu le développement de la toile en insistant sur son caractère gratuit et convivial. S'est ainsi constituée une sorte de culture de l'Internet qui s'est trouvée en porteà-faux avec l'irruption d'offreurs de services qui ne pouvaient s'installer sans bénéficier d'une quelconque forme de ressources. En économie marchande, la vraie gratuité n'existe pas et, fut-ce de manière indirecte, le consommateur final doit participer au financement du service utilisé. Biens publics8 par excellence, les médias audiovisuels ont depuis longtemps éprouvé les deux formes de fausse gratuité qui fondent leur économie: service public HERMÈS 37, 2003

197


Jean-Pierre Jézéquel

financé par la fiscalité, service commercial financé par la publicité. Ces deux formes n'étant pas exclusives, elles peuvent se combiner, la plupart des pays européens ayant testé différentes modalités de combinaisons possibles. Dans un deuxième temps, les firmes qui ont commencé à investir Internet pour y effectuer des opérations marchandes ont essayé de concilier cette idéologie de la gratuité avec leurs objectifs commerciaux. Le modèle de « gratuité » des médias audiovisuels fondé sur le financement publicitaire a semblé pouvoir fournir la réponse adaptée. La conjoncture économique déprimée à partir de 2001, en particulier celle du marché publicitaire, a précipité la prise de conscience que la gratuité, ou pseudo-gratuité, ne pourrait suffire à rentabiliser toutes les offres qui envisageaient de se développer sur Internet. L'idée qu'Internet ne pourrait croître qu'en s'appuyant sur des services (directement) payants a progressivement fait son chemin, non sans soulever nombre de réticences et de répugnances. Pendant l'été 2001, le cabinet conseil Andersen réalisait une enquête auprès de plusieurs centaines d'entreprises engagées dans le webcasting (les différentes activités liées à la vidéo sur Internet) 9 . Pour l'ensemble des entreprises répondantes, la publicité ne devrait plus représenter à l'avenir que moins de 50 % des revenus. Les autres sources de financement citées étaient dans l'ordre: l'abonnement, le pay per view et le commerce en ligne. En outre, ces différents modes de financement étaient associés par les sondés à différents modes de diffusion: la publicité et l'abonnement à l'accès en direct, et le pay per view au téléchargement. La valeur d'un tel type d'enquête doit naturellement être relativisée et l'on peut s'interroger sur la rigueur apportée tant au questionnaire qu'aux réponses enregistrées. Elle a le mérite de donner un coup de projecteur instructif sur l'état d'esprit des acteurs économiques et la hiérarchisation des revenus potentiels dans ce champ d'activité. Mais ce qui nous importe le plus ici est la diversité des types de transaction qu'évoquent spontanément les différents acteurs d'un secteur d'Internet pourtant à peu près délimité, en l'occurrence la vidéo. Il est acquis que le modèle économique fondé sur la seule publicité ne saurait constituer une perspective crédible. La place de la publicité pourrait être importante, mais elle voisinera avec des services qui se feront rémunérer selon diverses modalités.

Internet ou l'individualisation des comportements Dans le monde des médias audiovisuels et de la presse, la publicité a un rôle central nécessitant un instrument de régulation qui organise la distribution des flux financiers: la mesure de l'audience. Dans le monde de l'Internet, il est incertain que la publicité joue un 198

HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

rôle équivalent, même lorsque sa conjoncture particulière sera revenue à une meilleure fortune. Mais la différence entre les deux mondes, du point de vue des publicitaires, se situe encore à un autre niveau. Étant donné la diversité des services offerts et surtout la spécificité des rapports entretenus entre l'offreur de services et son usager, l'idée même d'un instrument de mesure d'audience unifiant cet univers et hiérarchisant entre les différentes plates-formes offrant des services devient illogique, contradictoire avec les atouts propres d'Internet. Les médias traditionnels s'adressent à des consommateurs de manière indifférenciée et ceux-ci leur sont en quelque sorte anonymes. Le caractère massif et indifférencié de la publicité traditionnelle oblige les acteurs de ce secteur à effectuer des constructions abstraites de cibles pour mieux cerner le public qui est exposé aux messages. La technique des sondages et des panels est au cœur de «l'économie publicitaire». Le Médiamat de la télévision représente sans doute le plus haut degré de sophistication jamais atteint par ces techniques. Avant même l'épuisement des perspectives de croissance du modèle publicitaire, les télévisions ont cherché de nouvelles ressources avec les chaînes payantes par abonnement. Aux Etats-Unis, HBO apparaît en 1973; Canal Plus, son équivalent français, commence à émettre en novembre 1984. Que ce soit pour l'organe de presse ou pour la chaîne de télévision cryptée, l'abonné se réduit à une adresse postale; on connaît par ailleurs la valeur marchande attribuée à ces fichiers qui sont susceptibles de permettre un meilleur ciblage pour la promotion d'un produit ou d'un service particulier. Sur la «toile», l'offreur de contenu inaugure un contact privilégié et personnalisé avec l'usager. Cette relation est d'ailleurs matérialisée par la liaison électronique bilatérale qui relie les deux protagonistes: l'information circule dans les deux sens. La navigation de l'internaute à l'intérieur d'un site exprime bien la singularité d'une démarche individuelle. Contrairement aux principes fondamentaux d'un média de masse (unilatéralisme, indifférenciation, simultanéité), la diffusion d'un contenu se traduit par l'envoi, à des moments différents, d'informations à un certain nombre d'adresses qui se sont portées candidates, avec des possibilités de rétroaction plus ou moins développées selon les cas. Cette relation beaucoup plus riche entraîne des conséquences majeures sur les rapports commerciaux et le type de marketing qu'elle autorise10. La relation Internet reconstitue, à distance, une sorte de face à face entre un fournisseur et un client. Non seulement ce dernier est identifié, mais son comportement à l'égard des différentes offres peut être enregistré et mis en mémoire. L'identification et l'enregistrement chronologique du comportement de l'usager accomplissent sa traçabilité. Pour reprendre l'analogie du fichier d'abonnés, non seulement on dispose de l'adresse du client, mais aussi de la trace de son parcours, sur des mois ou des années, à travers l'ensemble des offres d'un portail ou d'une plate-forme donnée. Si la publicité traditionnelle peut s'apparenter à du prêt-à-porter, la politique commerciale rendue possible par des informations aussi individualisées relèvent de la confection sur-mesure. À l'individualisation HERMÈS 37, 2003

199


Jean-Pierre Jézéquel

de la consommation des différentes offres (services, messages ou programmes) par l'usager, rendue possible par les nouvelles techniques de communication, fait écho l'individualisation de la politique promotionnelle des fournisseurs. Le développement des rapports marchands sur Internet ne va pas favoriser des techniques de comptage ou des indicateurs unifiés: la nature même du support va dans le sens d'un éclatement des instruments de connaissance des utilisateurs, de l'adaptation au programme ou au service offert, et au final de l'adaptation à la personne même du client. La connaissance des centres d'intérêt et des consommations passées déterminera, par systèmes de croisements d'informations, la confection d'une offre de services appropriée. Est-ce à dire que disparaîtra tout système de mesure de public ou d'agrégation statistique d'une fréquentation? Certes non, mais le sens de ces instruments ne sera pas celui d'une régulation des flux financiers, comme ont pu l'être les mesures d'audience ou de lectorat pour l'audiovisuel ou la presse écrite. Rappelons qu'avant même l'introduction de la publicité, les chaînes publiques de télévision française élaboraient des instruments de mesure de leur public et de la hiérarchie de leurs goûts. De la même manière, des sites Internet commencent déjà à construire des instruments de mesure de leur fréquentation. Non pas tellement pour régler les flux de recettes qu'ils espèrent, ou pour établir une hiérarchie avec un site voisin ou concurrent 11 ; mais pour établir des indicateurs leur permettant de mieux cerner l'identité sociale et collective de leur public. Le site privé dédié à un auteur ou un personnage historique, celui d'une bibliothèque, le service administratif sont, ou vont être, à la recherche d'une mesure de leur fréquentation, indépendamment de toute logique de financement. De leur côté, le site de l'agence de voyage, le service bancaire, le commerce de musique en ligne sont autant d'acteurs marchands qui vont chercher à améliorer leurs performances. Mais ils n'utiliseront pas pour cela des indicateurs simples et hiérarchiques à l'instar de ceux qui ont été construits par les médias traditionnels. Les indicateurs de fréquentation d'Internet serviront plus à l'inscription dans un réseau social qu'à une adjudication de ressources économiques. Si on peut individualiser à l'extrême les rapports économiques (et c'est tout le sens de ce qui se noue dans la nouvelle économie), on ne peut abolir la nécessaire socialisation des institutions; les nouveaux lieux d'offre de la «nouvelle économie» étant par définition en voie d'institutionnalisation.

NOTES 1. Dans La Croissance, début de siècle, Paris, Albin Michel, 2002, Robert BOYER se livre, au terme d'analyses détaillées, à «l'autopsie de la nouvelle économie». Par commodité, nous conservons ce vocable de nouvelle économie, sans méconnaître les mythes et les controverses qu'il suscite.

200

HERMÈS 37, 2003


Nouvelle économie: entre unité et diversité

2.

Pour cet effort de délimitation voir le paragraphe « Contours de la nouvelle économie» in Nouvelle économie, D. COHEN et M. DEBONNEUIL, rapport du Conseil d'Analyse Économique, septembre 2000.

3.

Économie de l'information, Carl SHAPIRO et Hal R. VARÍAN, Édition De Boeck Université; recension dans Le Monde, du 24 mars 2000.

4.

«Les logiques fondatrices d'Internet», Jean-Paul BERBÈZE, Le Monde, 17 octobre 2000.

5.

« Qu'est réellement la nouvelle économie ? », Philippe LEMOINE, Le Monde, 4 juillet 2000.

6.

« La nouvelle économie n'était pas qu'une chimère », Guillaume DuVAL, Alternatives économiques, mars 2003. Pour plus d'éléments sur les questions de productivité voir « Croissance économique et diffusion des TIC », notes d'études et de recherche de la Banque de France, décembre 2001 et «Croissance et technologies de l'information en France et aux États-Unis», Hélène BAUDCHON et Olivier BROSSARD, Revue de l'OFCE, janvier 2001. Ce dernier document s'efforce en particulier de donner des explications au retard constaté entre le développement des moyens informatiques dans les années 1970 et 1980 et leur impact sur les chiffres de la productivité globale de l'économie, à partir de 1995 et seulement aux États-Unis. Voir aussi le rapport Nouvelle économie du Conseil d'analyse économique, déjà cité.

7.

«Anatomie d'un crash», Lawrence H. SUMMERS et J. Bradford DELONG, Le Monde, 19 juin 2002.

8.

En Science économique, un bien est dit public si son utilisation par un usager n'entrave pas l'utilisation par un autre usager. Les médias audiovisuels représentent un exemple presque idéal.

9.

«Vers de nouveaux modèles économiques pour le webcasting», Écran total, 26 septembre 2001.

10. Ces aspects sont développés par Louis CHAMMING'S, Veut-on parler d'audience sur Internet, Dossiers de l'audiovisuel mai-juin 2002, Les nouvelles technologies: quels usages, quels usagers? 11. Une forme fruste de publicité sur Internet est encore à la recherche d'instruments «fiables» de cette nature pour tenter de construire des grilles de tarifs inspirés de celles des médias de masse traditionnels. Ce n'est pas la voie la plus riche dans tous les sens du terme.

HERMÈS 37, 2003

201


Josiane Jouet Institut français de presse, université Varis II

LA PÊCHE AUX INTERNAUTES Internet a-t-il une audience ? Certains allégueront que non car le réseau des réseaux n'est pas un média de masse et les usagers d'Internet ne constituent en rien une audience comme celle de la radio ou la télévision. La généalogie des études d'audience les lie en effet à l'avènement des médias de masse or Internet ne s'inscrit pas dans une logique de diffusion mais de connexion. Nous ne sommes plus en présence d'une offre construite pour rejoindre simultanément de vastes auditoires car Internet est un pluri-média qui donne accès à une multitude de services d'information, de loisirs, de jeux, de transaction, de commerce ou de communication interpersonnelle et collective. C'est aussi un hyper-média qui assigne à l'utilisateur une posture de communication interactive fort distincte de la posture de réception des médias de masse. De plus la polyvalence d'Internet lui confère un caractère globalisant qui fait éclater les sphères d'activités traditionnelles des médias de masse et s'étend, entre autres, à la sphère du travail et de l'échange communicationnel. Or a-t-on jamais entendu parler de l'audience des outils de travail ou de l'audience du téléphone ? L'architecture technique d'Internet défierait donc en elle-même l'application de la notion d'audience. D'autres rétorqueront que si, l'audience d'Internet existe bien. En effet, depuis 1996, Internet s'est démocratisé et son ouverture vers «le grand public» s'est accompagnée non seulement de l'arrivée des grands médias de masse sur le Web mais de fournisseurs d'accès, de moteurs de recherche et de portails qui se sont largement inspirés du modèle médiatique et, en particulier, du modèle de la presse magazine et de la télévision. « Que cherchent en effet tous les opérateurs du Net qui, quel que soit leur métier de départ, cherchent à se constituer en portails ? Ils prétendent, eux aussi, agréger des publics pour les faire passer par leur point de passage obligé, dans le but essentiel de maximiser, là aussi leurs revenus publicitaires. Le modèle économique calqué à travers les portails est celui de la télévision: l'émergence de la guerre des méthodes de mesure d'audience sur Internet n'est qu'un symptôme mais elle est en même temps la pièce maîtresse de cette opération de compromis HERMÈS 37, 2003

203


Josiane Jouët

avec les publicitaires. » (Boullier, 2000). L'art de la conception de site s'apparenterait donc à l'art de la programmation dans la sphère audiovisuelle, à l'art de l'offre éditoriale et de la mise en scène graphique dans la presse écrite, arts qui recourent largement aux études d'audience et au marketing. Si le glissement d'Internet vers le modèle éditorial justifie, du moins en partie, l'emprunt de la notion d'audience, la mesure d'audience d'Internet n'est pas un simple calque des mesures d'audience des médias. Elle se greffe d'emblée sur deux autres logiques: la logique de mesure de trafic des télécommunications et la logique de numérisation de l'informatique. Les filiations techniques du réseau des réseaux contribuent à la genèse de la mesure d'audience d'Internet. En effet, la construction de ce dispositif repose sur un agencement entre d'une part, les outils de la technologie sociale empruntés aux études d'audience classiques et au marketing et, d'autre part, les outils de l'informatique et des télécommunications (numérisation, procédures de capture, suivi et observation des trafics et des flux... ). Ainsi, la mesure de l'audience d'Internet est d'abord et de façon massive une mesure sur Internet. Nous prenons en compte dans cet article, non seulement les travaux de mesure de l'audience mais aussi les travaux d'enquête qui étudient les internautes en recourant soit aux méthodes classiques de questionnaire ou d'entretien, soit aux questionnaires en ligne. L'objectif n'est pas d'exposer l'ensemble de la panoplie des études d'audience d'Internet qui font florès ni d'entrer dans les raffinements en évolution constante des techniques utilisées1 Le texte ne fournit pas non plus de résultats statistiques sur les audiences d'Internet en raison d'une part, de leur obsolescence et, d'autre part, du fait qu'ils sont, du moins pour la partie qui n'est pas confidentielle, aisément accessibles en ligne. La perspective est autre, car il s'agit d'aborder les enjeux des études d'audience, de s'interroger sur les modes de construction des principales méthodologies et de cerner la représentation des internautes qui émerge de ces dispositifs.

Un marché fragmenté En moins d'une décennie, le marché des études d'audience d'Internet a explosé sous l'effet de la «bulle Internet». C'est encore un marché ouvert qui a ainsi vu l'apparition de petites sociétés d'études qui rivalisent dans l'élaboration d'outils de mesure ou d'études performants. Il se caractérise par une forte instabilité et concurrence et s'y déploient de grands instituts de sondage, comme Médiamétrie, aux côtés de petites start-ups comme eStat, Weborama ou Atinternet, spécialistes de la mesure de trafic sur réseau dont la 204

HERMÈS 37, 2003


La pêche aux internautes

clientèle initiale de petits éditeurs de site s'est élargie à des acteurs plus importants. En outre, des bureaux d'étude et de marketing de taille moyenne, comme Novatris, réalisent aussi des enquêtes sur les internautes. La fragmentation actuelle du marché de l'audience se caractérise de fait par un double phénomène de spécialisation et de partenariat international, dans un climat d'incertitude économique qui renforce les concentrations. Dans cette course aux études, chacun est à la recherche de la killer application et aucune ne s'impose de façon définitive. D'ailleurs la spécificité du média Internet n'appelle pas nécessairement l'imposition à terme d'une mesure d'audience unique, comme cela s'est passé pour la télévision avant l'arrivée des chaînes thématiques, mais peut-être se produirat-il une coexistence de mesures renvoyant à l'hétérogénéité du média Internet et de ses intervenants. Aujourd'hui il est de bonne guerre d'évoquer les écarts de résultats sur l'audience d'Internet obtenus par les différentes méthodes. La mesure d'audience d'Internet repose en effet sur un paradoxe: il est le média qui a priori se prête le mieux à la connaissance de ses publics car l'usager en ligne laisse quantité de traces mais il est à la fois le média le plus complexe à mesurer. De nombreux obstacles surgissent en effet pour obtenir des comptages rigoureux et précis. L'utilisation de serveurs «proxy» et des caches masquant les fichiers logs font que plus une page est demandée moins elle est comptabilisée, le problème étant résolu par la présence de marqueurs sur les pages. Des difficultés techniques surgissent aux niveaux des navigateurs, des fournisseurs d'accès, des types d'ordinateurs des usagers, des lieux de connexion (domicile, entreprise, cybercafé, université... ). De plus, les méthodes de mesure diffèrent et les logiciels de comptage n'enregistrent pas nécessairement les mêmes paramètres. « Ces différences sont un frein à la crédibilité du média, car les chiffres sont souvent comparés entre eux sans que l'on sache comment ils ont été obtenus. » (Brignier et al, 2002). Il existe par ailleurs une forte instabilité de la démographie des internautes qui exige une mise à jour permanente et périodique des enquêtes de calage réalisées par les grands instituts de sondage afin d'ajuster la représentativité des échantillons. De plus, à l'inverse de la télévision par exemple, l'audience d'Internet est par définition internationale même si les études montrent que les sites nationaux sont très majoritairement consultés par les résidents de leur pays. Surtout, le média Internet qui offre une diversité d'applications et de services (information, messagerie interpersonnelle et de groupe, transfert de fichiers, transaction etc. ) rend impossible une mesure d'audience unique et exhaustive y compris dans le seul domaine du Web en raison de la multitude des sites qui se chiffrent par centaines de milliers. La différence avec les médias de masse est donc ici majeure et une vaste partie d'Internet échappe de fait à toute mesure. Si les mesures d'audience d'Internet sont encore loin d'être parfaitement cohérentes et fiables, elles tendent à converger de plus en plus grâce entre autres aux efforts des instances interprofessionnelles qui ont chargé les organismes de contrôle (le Centre d'études des supports HERMÈS 37, 2003

205


Josiane Jouët

de publicité et Diffusion contrôle) d'opérer une certification et une labellisation des outils de mesure soumis à un audit régulier. Ainsi, la mise en place par le CESP d'une « Terminologie pour la mesure d'audience d'Internet » a permis d'établir une définition précise des différents indicateurs de mesure reconnus et appliqués par les organismes d'audience2. A l'instar des médias de masse, l'audience d'Internet est désormais mesurée à l'aune de ses propres indicateurs parmi lesquels: le nombre de pages vues, de pages vues avec publicité, de session utilisateur correspondant à la durée totale d'une connexion qui peut elle-même comprendre plusieurs visites, soit un ensemble de pages vues sur un même site au cours d'une même session, de visiteurs (individus consultant un même site au cours d'une période donnée)...

De la traque des traces aux enquêtes e n ligne Deux grandes méthodologies permettent d'effectuer des mesures d'audience d'Internet sur Internet: les mesures dites «site centric» qui chiffrent la fréquentation des sites d'une part, et les mesures dites «user centric» qui permettent de connaître le comportement des internautes d'autre part. Du côté des mesures «user centric», les panels d'Internautes sont en quelque sorte le décalque de l'audimétrie télévisuelle et, tout comme pour le Médiamat, ils sont constitués d'individus consentant à l'installation d'un logiciel espion sur leur ordinateur. Ce système d'enregistrement passif est a priori le plus fiable car l'internaute s'identifie dès qu'il se connecte à Internet (les différents membres du foyer ont chacun un code d'accès spécifique) et il est suivi à la trace. Grâce à l'interactivité du média, on peut repérer toute inactivité supérieure à un temps donné, qui est assimilée à une fin de session, et ce dispositif paraît supérieur en précision au Médiamat dont le système de boutons poussoir ne permet pas de cerner l'attention du téléspectateur au petit écran. Les panels reposent sur un échantillon représentatif d'internautes correspondant à des catégories sociales précises et fournissent des renseignements précieux sur les usages d'Internet et leur évolution dans le temps. La tendance à l'internationalisation et à la concentration est remarquable pour ces panels d'Internautes très onéreux qui, conjointement implantés dans plusieurs pays, permettent des mesures comparatives sur plusieurs zones géographiques. Ainsi, les trois panels présents en France au début de l'année 2002, étaient-ils tous les résultats d'alliances entre opérateurs nationaux et multinationaux. Médiamétrie s'est associé à Nielsen, le grand spécialiste américain de l'audience, à travers la société Nielsen-NetRatings; la Start up Netvalue, associée au groupe Taylor Nelson Sofrès, avait développé un partenariat avec le 206

HERMÈS 37, 2003


La pêche aux internautes

groupe américain ComScore, avant d'être absorbée par le même NetRatings à l'automne 2002. Le troisième panel, Jupiter Médiametrix Europe, était une joint venture de l'Américain MediaMetrix avec des instituts européens, dont l'Allemand GFK et le Français IPSOS, avant d'être racheté par ComScore et d'être utilisé à d'autres fins. A la fin de l'année 2002, il ne demeure plus sur le marché français de la mesure user centric que le panel de Nielsen-Netratings commercialisé par Médiamétrie. Néanmoins, la connaissance par le biais des panels présente des limites car les données recueillies sont valides pour la fréquentation des gros sites (portails, moteurs etc. ), mais non pour cerner la consultation des petits sites en raison de l'extrême fragmentation du Web. « On touche ici une limite importante de ce type de mesure: comme on compte les visites à l'intérieur d'un échantillon, il faut accumuler des observations dans la durée pour obtenir des chiffres qui puissent être significatifs. C'est une limite frustrante dans le cas d'un média interactif comme Internet. » (Haering, 2002). En effet, les échantillons - même s'ils atteignent, par exemple en France, environ 10 000 panélistes pour le seul panel restant - ne sont pas très extensibles car le coût de recrutement et de gestion des panels est très élevé. Si les panels sont apparus à la fin des années 1990 comme la méthodologie la plus adéquate pour mesurer l'audience d'Internet, cette approche reste aujourd'hui complémentaire des mesures effectuées côté sites. Ainsi, les mesures dites site centric, qui avaient été les premières mesures effectuées sur Internet, connaissent un regain d'intérêt car leurs logiciels deviennent de plus en plus sophistiqués et permettent aujourd'hui, outre la simple quantification, des approches de qualification de l'audience. Les études de fréquentation de sites sont des comptages externes réalisés par des organismes spécialisés qui installent leur propre marqueur sur les pages des sites ce qui garantit la validité et la comparabilité de la mesure. Cette méthodologie présente l'avantage d'enregistrer toutes les connexions sur les sites étudiés, qu'elles proviennent du domicile, de l'entreprise ou d'un lieu d'accès collectif, assurant ainsi la fiabilité des résultats, alors que les panels d'internautes sont encore largement résidentiels et plus difficiles à installer dans le monde professionnel. Le marché du site centric se répartit entre huit sociétés dont les outils ont été labellisés par Diffusion contrôle dont Cybermétrie (dispositif de Médiamétrie), mesure collective et commune de fréquentation de sites, et d'autres sociétés spécialisées moins importantes3. La spécificité du média Internet favorise en effet la construction de dispositifs de mesure innovants qui combinent la technologie de l'informatique, via des logiciels de capture des traces de plus en plus exhaustifs, et la technologie sociale du marketing. Ces sociétés présentent des classements de sites par thématiques et leurs services répondent au montant de la souscription du client, allant de la gratuité pour le comptage de la fréquentation des sites personnels (moyennant un encart publicitaire de la société), à des services de plus en plus onéreux selon les niveaux de statistiques et de conseils marketing demandés. HERMÈS 37, 2003

207


Josiane Jouët

Ces dispositifs conjuguent d'une part du tracking avec des logiciels de capture qui fournissent aux sites souscripteurs des données précises sur leur fréquentation, les caractéristiques des visites du site, l'assiduité des internautes et, d'autre part, parfois du profiling qui vise une qualification de l'audience. Les internautes ne sont pas identifiés nommément ni selon leurs caractéristiques socio-démographiques, à l'inverse des panels. La reconnaissance des visiteurs repose sur l'identification du navigateur de l'ordinateur grâce aux cookies. Les techniques de profiling suivent par exemple le parcours des internautes sur la toile pour saisir leurs centres d'intérêt et en déduisent de façon indirecte et probabiliste le profil des utilisateurs des différents sites (leur âge, leur sexe, leurs goûts, leur consommation). Une analyse sémantique des sites consultés est aussi parfois effectuée. Le profiling débouche sur des recommandations qui orientent l'offre éditoriale mais aussi bien sûr l'offre publicitaire. Là encore, Internet se distingue des médias de masse en permettant une insertion dynamique des publicités qui peut varier en fonction de la cible et en fonction de l'exposition préalable de l'internaute aux messages publicitaires. De plus, les annonceurs peuvent a priori connaître l'efficacité de leurs campagnes avec les indicateurs de pages vues avec publicité, les taux de clics sur les publicités voire les clics through (publicité totalement téléchargée). Les serveurs de publicité via la technique du marquage des messages publicitaires disposent donc de statistiques d'audience précises. Si la traque des traces est la poule aux œufs d'or des mesures d'audience d'Internet, d'autres sociétés sont spécialisées dans les études d'audience visant à connaître les publics d'Internet. La méthode la plus utilisée est celle des questionnaires en ligne qui fournissent des renseignements sur les types et les modalités d'usage d'Internet, mais aussi sur la consommation et le mode de vie des internautes. Ces enquêtes en ligne peuvent être effectuées par vague et de façon régulière par certains bureaux d'études, comme Ipsos ou Novatris, qui disposent ainsi de bases de données conséquentes sur plusieurs milliers d'internautes qu'ils qualifient de «panel» dans la mesure où ces derniers peuvent être régulièrement sollicités. Ces grandes études multi-clients se doublent d'enquêtes ad-hoc réalisées à la carte et accompagnées de conseil marketing. L'analyse des données de ces enquêtes devient de plus en plus pointue et ciblée autour de la représentation de l'internaute comme consommateur. Si les enquêtes en ligne présentent les avantages d'un faible coût et d'une rapidité de mise en place, leurs limites résident dans la représentativité des internautes qui acceptent de remplir les questionnaires en ligne car le volontariat des réponses entraîne une sur-représentation des usagers les plus assidus et enthousiastes. De plus, la participation à ces enquêtes ou à des jeux organisés pour la collecte de données auprès des pratiquants d'Internet peut être motivée par des cadeaux... Malgré ces limites, les enquêtes en ligne livrent beaucoup de données sur les usages d'Internet, données d'une autre nature que les mesures d'audience. 208

HERMÈS 31, 2003


La pêche aux internautes

Transparence et opacité de l'internaute Traqué sur le réseau des réseaux, suivi, «profilé», l'internaute serait devenu transparent. En se branchant, il tisse lui-même les fils de sa reconnaissance (ses connexions en fréquence et en durée, ses types d'utilisation d'Internet, ses sites favoris, ses trajectoires sur la toile). Aucun média n'a jamais permis d'en savoir tant à l'insu même de son auditoire. Les instruments de mesure nous livrent une avalanche inédite de chiffres pour décrypter les comportements des utilisateurs. La puissance des logiciels de capture, le raffinement des outils de traitement de données, la finesse des modèles d'analyse statistique produisent une évaluationencontinudesactivitéssur une telle mine de données ? Quel éditeur, annonceur ou publicitaire n'a-t-il ainsi désiré accéder au repère et au calcul en temps quasi réel des comportements de son audience ? Cependant ces nébuleuses de traces fournies quotidiennement ne livrent pas d'ellesmêmes les principes de leur interprétation. L'énormité des corpus, la complexité des données et des indicateurs exigent une simplification et une présentation qui puissent être lisibles par les commanditaires. Les éditeurs de site sont ainsi submergés par les représentations statistiques en ligne (principaux indicateurs d'audience, graphes de suivi dans le temps, outils pour connaître la fidélisation de leur public et les liens affluents des internautes venant sur leur site etc. ) et on observe une sous-exploitation des résultats. La gestion de site appelle la formation d'analystes qui puissent lire et interpréter la sophistication des recueils de mesure existants pour optimiser leur offre éditoriale, moyens dont ne disposent que les gros sites. Les études d'audience d'Internet se sont en effet mises en place plus rapidement que pour les médias de masse et elles ont été d'emblée façonnées par le marketing. Certes la gratuité des services offerts sur Internet n'est pas étrangère à cette approche commerciale et publicitaire des études d'audience pouvant conduire à une réactivité immédiate de l'offre. Cette tendance indique sans doute un recul des mesures d'audience globales au profit de mesures de plus en plus sectorisées, qui offrent l'avantage de ciblages précis sur un site, une catégorie de sites ou de thématiques, par exemple, mais qui perdent du coup en regard distancié sur l'évolution d'ensemble du média où se repèrent les grandes tendances sociétales. Ainsi les mesures d'audience ne sont-elles pas tant conçues pour la connaissance des publics que comme outils stratégiques. Elles construisent un modèle de l'internaute client qu'il s'agit d'identifier par son profil, voire par son identité, aux fins de lui adresser des messages publicitaires ou de lui proposer des produits répondant à ses intérêts et à son mode de vie. « La propriété caractéristique d'Internet est d'être un média interactif. Parfaitement adapté au marketing direct, il est l'outil idéal pour identifier et solliciter, non pas des cibles statistiques, mais des individus concrets. » (Chammings, 2002). La visée du HERMÈS 37, 2003

209


Josiane Jouët

marketing direct personnalisé, le rêve du Β to C (Business to Consumer) se retrouvent en filigrane de la construction des dispositifs d'audience et n'est pas sans soulever une série de questions déontologiques. Certes, tout internaute peut détruire les cookies qu'il récolte lors de ses visites mais la procédure est contraignante et de fait l'internaute, sans qu'il le sache le plus souvent, alimente les bases de données qui permettront de le repérer à des fins qui lui échappent. Néanmoins, les mesures et enquêtes d'audience d'Internet peuvent être aussi utiles aux sciences sociales. Les dispositifs varient, comme nous l'avons vu, selon les méthodes, selon les outils de collecte, de gestion et de rendu, mais les diverses représentations qu'ils nous livrent cernent dans leur complémentarité diverses figures de l'internaute. La connaissance des modes de construction de ces dispositifs permet de les utiliser et de les interpréter avec les précautions requises. De plus, ces bases de données, une fois rendues accessibles, peuvent faire l'objet de traitements statistiques complexes et d'analyses scientifiques, comme le montre l'étude approfondie du « Suivi d'une cohorte d'internautes du panel Netvalue France en 2000 »4. On ne saurait toutefois oublier que l'internaute mesuré est réduit à un dénombrement d'actes (hits, clics... ), à des parcours sur Internet, mais on ne sait rien de ses motivations, du sens qu'il investit dans ses pratiques, du rôle que remplit Internet dans sa vie sociale. Car que nous offrent ces dispositifs si ce n'est une représentation des internautes construite par un agencement d'outils informatiques, statistiques et marketing qui produit des modèles de quantification et des procédures de catégorisation. Le poisson internaute est donc malgré lui pris dans les filets du Net et - ainsi tatoué, marqué, taggué - devient un produit. Pour autant, l'internaute glisse entre les mailles et sa transparence a pour revers son opacité. Ecrasé sous des lignes de chiffres, il s'évapore. La quantification excessive risque de ne plus produire que des modèles formels, des segmentations de publics, des stéréotypes de comportements, des typologies hâtives qui ne se ressourcent pas dans l'épaisseur du social. Tout comme Dominique Boullier (1987) l'avait si bien analysé à propos de la télévision « l'activité télé déborde largement ce qui se passe sur le petit écran », de même l'activité Internet se déploie aussi largement en dehors des connexions. L'internaute-utilisateur construit par la mesure d'audience n'est pas l'internaute-usager construit par les sciences sociales. Les internautes rangés dans des profils, devenus «qualifiés» par le marketing, perdent de leurs qualités. Étiquetés via leurs connexions, réduits à des enchaînements d'actes, les internautes demeurent opaques.

210

HERMES 37, 2003


La pêche aux internautes

NOTES 1.

Pour plus de précisions sur les méthodes et techniques d'audience d'Internet voir, partie 6, Internet, in BRIGNIER et al, 2002, et HUSSHERR, F-X., NERON, S., 2002.

2.

Pour ces indicateurs, voir le site du Centre d'études des supports de publicité [cesp. org].

3.

Sociétés et outils labellisés par Diffusion Contrôle [ojd. com] en 2002; Stat SAS (eStat), Weborama SA (le Weboscope), Médiamétrie (cybermonitor), At Internet (Xiti), ID. fr (wysistat), WebSideStory (Hit Box enterprise), Nedstats SAS (sitestat), Telmédia (visiostats).

4.

BEAUDOUIN, V, HOUSSEM, Α., BEAUVISAGE, T., LELONG, B., LICOPPE, C , ZIEMLICKI, C , (France Telecom),

ARBUES, L. (Net Value), LENDREVIE, J. (HEC), « Suivi d'une cohorte d'internautes du panel Net Value France en 2000 », rapport HEC, NetValue, France Telecom R&D, 2002.

RÉFÉRENCES

BIBLIOGRAPHIQUES

BOULLIER, D., La Conversation Télé, rapport du Larès, université Rennes 2, 1987. BOULLIER, D., « Internet et télévision: une convergence tentante et improbable », Les Dossiers de l'Audiovisuel, n° 89, janvier-février 2000. BRIGNIER, J. -M., CHAVENON, H., DUPONT-GHESTEM, F., DUSSAIX, A. -M., HAERING, H., Mesurer l'audience des

médias. Du recueil des données au média planning, Paris, Dunod, 2002. CHAMMINGS, L., « Peut-on parler d'audience sur Internet », Les Dossiers de l'Audiovisuel, n° 103, mai-juin 2002. HAERING, H., « Internet: nouveau média, nouvelles mesures », Les Dossiers de l'Audiovisuel, n° 103, mai-juin 2002. HUSSHERR, F-X., NERON, S., Comportement de l'internaute, Paris, Dunod, 2002.

HERMÈS 37, 2003

211


Hubert Bouchet Commission nationale de l'informatique et des libertés (Cnil)

DANS LA TOILE: ARAIGNÉE OU ABEILLE

Avec «Caïn qu'as-tu fait de ton frère?» ou encore «l'œil était dans la tombe et regardait Caïn», la bible traduit une condition de l'être humain sous le regard de l'autre. Prosaïquement, Jacques Brel fait écho à semblable préoccupation dans sa chanson «les fenêtres... qui... nous suivent et nous poursuivent... jusqu'à ce que peur s'en suive jusqu'au fond de nos draps ». Naturellement dans le premier cas, s'agissant de Dieu, le regard est virtuel et procède d'un face à face qui, rappelant l'assassin à sa culpabilité inextinguible, peut ne pas sortir du champ des protagonistes. S'agissant de Brel, c'est le rappel de la curiosité de l'autre, celleci non virtuelle. Dans ce dernier cas aussi le regard n'a pas de caractère universel et l'objet de l'observation peut rester dans l'ignorance de la part de sa vie captée par le regard inquisiteur, ou simplement curieux, du «voyeur». Dans le plus anodin des cas, le rassemblement des regards de plusieurs fenêtres nourrit des rumeurs qui n'intéressent que les amateurs de cancans. Moins anodine est la situation où un fait divers peut amener la police à enquêter et rassembler ce qui n'était qu'objet de commérage. Et à l'autre extrême de l'usage des parts de vie captées, c'est l'inquisition dont les ordres religieux n'eurent pas l'exclusivité. Avant-hier et jusqu'à la révolution industrielle, l'utilité à savoir sur l'autre était cantonnée. Mauvaise et bonne curiosité visaient la connaissance d'informations sans caractère marchand. Naturellement, le caractère non marchand n'enlevait rien à la cruauté dans une situation qui voyait autrui savoir sur vous ce que vous ignoriez qu'il sût, et d'où il le tenait. Cette situation a fondé une culture de l'abri d'autrui avec les trésors d'invention HERMÈS 37, 2003

213


Hubert Bouchet

déployés par nos ancêtres pour voir sans être vus. Si l'inventaire de ces trésors est infaisable, les capacités respectives à les mettre en œuvre établissaient une hiérarchie dans laquelle la plus grande transparence équivalait à la plus grande vulnérabilité. Celui sur lequel tout était su n'avait aucune marge de manœuvre alors qu'aux antipodes se situait celui dont les ressorts de l'action n'étaient pas dévoilés: «le tireur de ficelles». Entre transparence totale et opacité complète s'est, tout au long de l'histoire, déployée toute la diversité des comportements humains, pour le meilleur et pour le pire. Avec l'entrée dans l'ordre industriel marchand, une raison supplémentaire impérieuse et nouvelle de savoir sur autrui est apparue. Progressivement, le lien entre le producteur et le consommateur est devenu moins dissymétrique du fait de l'éloignement de la situation de rareté qui donnait la prééminence à l'offre. Quand il y a abondance, le rapport s'inverse entre les protagonistes de l'échange, marchand ou non, avec le privilège à celui qui peut choisir entre différentes offres. Il revient à tout offreur de se différencier pour diriger le choix vers lui. S'impose naturellement la nécessité de la connaissance la plus détaillée de l'acheteur éventuel pour se porter à sa rencontre et faire marché avec. Tout exagérée qu'elle soit, la notion de « consommateur roi» manifeste cette situation ou la dissymétrie du rapport s'est déportée. Affleure l'idée que, pour le roi, rien n'est trop beau. Il convient d'accéder à ses désirs qu'il faut connaître. Pour connaître encore et toujours plus, des techniques n'ont cessé d'être inventées, avec le secours des sciences humaines. Sondages et enquêtes d'opinion visent tous le même objectif avec des moyens qui n'ont cessé de se sophistiquer. Mais pareilles au Larousse qui sème à tous vents avec beaucoup de déperdition, les techniques de sondage «pré-Internet» recueillent des éléments collectifs d'opinion alors que l'efficacité la plus grande résulterait aussi de l'approche des comportements et pratiques de chacun. A supposer même que cette approche individuelle fut réalisée avec les techniques préInternet, l'importance de l'arsenal nécessaire à sa bonne fin en eut altéré la rentabilité et biaisé le résultat, du fait de la rétivité engendrée par «l'intrusivité» des moyens. La génération des techniques dont Internet est emblématique permet de s'affranchir des limites de la panoplie des outils de la génération précédente et d'approcher la connaissance la plus fine des pratiques individuelles. Cela se fait le plus naturellement grâce à la trace laissée par chaque transaction sur le réseau. Dès lors, toutes les traces rassemblées sont susceptibles de dévoiler l'individu comme jamais auparavant. Pour ce dévoilement, existent bien sûr les traces passives des actes banals de la vie domestique et professionnelle. Existent aussi les traces laissées volontairement afin de bénéficier d'une commodité ou d'un service particulier. Ces services et commodités ont vocation à concerner toutes les facultés de l'être humain soucieux de se simplifier la tâche ou d'être tout simplement distingué des autres. Appliquée au quotidien, cette perspective peut affecter tous les actes du travail et de la vie ainsi facilités. 214

HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Se faciliter la vie joue comme un leitmotiv. En son nom, il est naturel de délivrer des informations personnelles ciblées pour permettre la meilleure satisfaction de tel ou tel besoin. C'est ainsi que le commerçant attitré disposera d'informations sur le genre de vie pour offrir les meilleurs produits pendant que le médecin conservera toutes données médicales pour être plus prompt à intervenir au cas où... Le banquier fera de même comme tous ceux avec lesquels quiconque a affaire. Ici l'imagination peut se laisser libre cours et l'esprit le plus inventif ne saurait concevoir toutes les applications justifiant qu'autrui dispose d'informations pour le meilleur service à quiconque. Parmi d'autres, les promesses de la formation en ligne ne seront-elles pas directement conditionnées par la connaissance la plus détaillée de l'état intellectuel de l'apprenant... pour l'efficacité par l'intrusivité sans limite. De proche en proche se trouvent dévoilés des éléments de fonctionnement interne de l'individu inaccessibles jusqu'alors. La formation en ligne encore appelée «e-learning» ouvre la voie à la mise au jour du secret du fonctionnement intellectuel avec le risque sans pareil de la transparence. Ici c'est pour la bonne cause que l'individu se dévoile. Ce faisant, il ouvre la voie qui pourra permettre ce dévoilement pour d'autres causes par exemple pour discriminer entre des salariés au vu de ce qui sera su de leur aptitude à raisonner. En final des données concernant chacun peuvent stationner dans tous les lieux qu'il fréquente. Hier déjà, cela existait dira-t-on ! Évidemment mais à la différence qu'elles restaient éparses faute de facilité à les réunir. C'est l'ordinateur qui a changé la donne et ouvert la possibilité de réunir toutes les informations concernant quiconque. Au cours des années 1980, l'idée de faire converger sur l'identifiant le plus universel de chacun le maximum d'informations le concernant naquit. En ce temps-là, il fallait que les informations soient matériellement réunies. Désormais la technique récente et le réseau facilitent les choses et permettent l'automatisation complète de tout processus de collecte et de traitement des données. Parmi d'autres, certains exemples permettent d'approcher les questions nouvelles nées des nouvelles fonctionnalités des techniques en réseau. - La diffusion sur Internet de fichiers de membres d'obédiences maçonniques, internes à ces groupements, à l'insu des personnes concernées. Plus de 3 000 noms et coordonnées ont été diffusés sur Internet, en infraction avec l'article 31 de la Loi du 6 janvier 1978 qui interdit la mise en mémoire ou la conservation de données nominatives qui font, directement ou indirectement, apparaître notamment les opinions philosophiques des personnes. Ainsi, une telle mise en ligne mettait l'auteur de la divulgation en infraction avec les dispositions de la loi et, tout particulièrement, avec l'article 226-19 du Code pénal qui sanctionne le fait, hors les cas prévus par la loi, de mettre ou de conserver en mémoire HERMÈS 37, 2003

215


Hubert Bouchet

informatisée, sans l'accord exprès de l'intéressé, de telles données. Seules les données manifestement rendues publiques par les personnes concernées font exception à cette règle. - La diffusion sur Internet des décisions de justice. Les audiences des cours et tribunaux sont presque toujours publiques et les jugements et arrêts sont communicables à toute personne qui en fait la demande. Pourtant la compilation des décisions de justice sous la forme de bases de données et leur diffusion sur Internet soulèvent des interrogations particulières au regard de la protection des données personnelles. En effet, des risques particuliers s'attachent à la libre diffusion sur Internet de décisions de justice mentionnant l'identité des parties au procès. Par la seule mécanique des moteurs de recherche, c'est un casier judiciaire universel, permanent et ouvert à tous, auquel on aurait à faire face, pouvant conduire à une «peine d'affichage numérique». - L'Internet et les mineurs. L'utilisation d'Internet par les enfants constitue indéniablement une source de préoccupation importante pour les parents et les éducateurs, conscients des dangers auxquels les enfants peuvent être confrontés sur le réseau du fait des contenus qui peuvent être illégaux ou de nature à les troubler (pornographie, racisme, violence physique et psychologique), de l'existence de messageries (avec la possibilité de contacts directs avec des tiers virtuels) ou du caractère marchand et commercial des sites. L'inquiétude des parents et éducateurs se trouve d'ailleurs souvent renforcée par leur manque de maîtrise des techniques et leur sentiment de ne pas être en mesure d'exercer leur autorité sur les enfants qui eux surfent avec une grande aisance sur la toile. Un aspect particulier concerne l'utilisation des enfants pour obtenir de manière déloyale des informations sur eux et leurs proches. En effet, la rapidité des échanges, l'interactivité, voire l'aspect ludique du réseau Internet font des enfants des cibles idéales pour se procurer des données toujours plus nombreuses et plus précises et ainsi constituer, à l'insu de leurs parents et sans que les enfants en aient eux-mêmes conscience, des bases de données très performantes sur l'environnement social et économique des familles, qui sont susceptibles de porter atteinte à leur vie privée. L'image de la toile apparaît ici et selon que vous êtes araignée ou abeille... L'araignée tisse et retisse toujours reliant les fils qu'elle élabore et organise en réseau. Elle est au cœur de la toile qu'elle agence à son gré. L'abeille est piégée par la toile qui l'emprisonne. Le voudrait-elle qu'elle ne pourrait se dépêtrer car elle n'a aucune intelligence du réseau et de ses composants. Prise dans une toile d'araignée, elle est d'abord entravée et puis meurt. Alors abeille ou araignée, telle apparaît l'alternative. Être abeille postule la plus grande transparence avec l'externalisation du pilotage de l'individu, consciente ou non. Ce qui est su de lui l'identifierait et ne lui parviendraient que les signaux choisis par d'autres. Le risque d'instrumentation est ici central avec la personne traitée en objet. 216

HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Prendre le parti de l'araignée est aux antipodes avec l'intelligence des réseaux qui le concernent par chacun alors sujet. Poursuivant l'image qui situe araignée et abeille aux antipodes l'une de l'autre, l'observation conduit à constater que les êtres humains se distribuent sur la trajectoire qui rejoint l'une et l'autre. Côté abeille se situent tous ceux qui sont empêtrés par la technologie, parfois jusqu'à l'impotence. Côté araignée se trouvent les virtuoses qui sont comme poissons dans l'eau et tirent le maximum de toute technique mise à leur disposition. La capacité à tirer le plus des techniques nouvelles est pour partie affaire de génération. En son temps déjà Michelet avait pointé la question dans sa leçon du 22 mai 1839, au Collège de France: «les plus grands esprits d'il y a 200 ans ne comprendraient rien aux choses d'aujourd'hui tandis qu'il suffit à l'enfant de naître pour être initié à tous les secrets de la vie contemporaine. C'est là l'utilité de la mort. Elle simplifie les questions en détruisant l'impuissance de comprendre, en ménageant sans cesse des êtres nouveaux pour les choses nouvelles ». Parler de notre temps à l'aune de Michelet invite d'abord à relativiser l'avis des gens «installés» au moment où une nouvelle technique naît. Seuls ceux qui naissent au même moment sauront s'en emparer. Si cela vaut à l'évidence pour le maniement des outils, cela peut aussi aider à raisonner à l'endroit de la maîtrise de leurs conséquences. L'invite est alors à tenir l'équilibre entre les catastrophistes pour lesquels tous sont abeilles inextricablement empêtrées dans la toile et les béats qui ne se voient et voient tout le monde qu'araignées. L'invite est aussi à laisser la technique produire tous ses effets, assurés que ceux-ci ne peuvent jamais être totalement prédéterminés. L'expérience apprend qu'il n'est pas de techniques que l'on sait durablement entraver et dont on ne trouve des effets au plus loin de leurs berceaux. Alors semblable situation dans laquelle l'incertain règne appelle l'individu à l'adoption d'une posture de vigilance individuelle. Cette posture nourrit le double souci de la virtuosité pratique dans l'usage des techniques et de la conscience lucide de l'externalisation d'informations qui exposent chacun au regard, donc à l'influence du dehors. Sur la virtuosité pratique, la cause est entendue avec les dires de Michelet et ce qu'il en faut déduire. La conscience lucide interpelle chacun dans la donne nouvelle de surexposition qui risque d'altérer sa liberté individuelle. Instruire de la réalité s'impose d'abord, pour inviter à la mesure, dans l'exposition des données personnelles. L'école doit jouer son rôle. Au même titre qu'à lire, écrire et compter, elle doit désormais apprendre le code de la société nouvelle et instruire de la nécessité et des moyens de s'y protéger. Sa protection est d'abord l'affaire de chacun. «Protège-toi, le ciel te protègera. » est-on tenté d'avancer détournant là une formule de textes connus. Naturellement, la protection est l'affaire de la collectivité qui doit établir le code de la route des autoroutes de l'information. HERMÈS 37, 2003

217


Hubert Bauchet

En France, depuis 1978, et désormais dans toute l'Union européenne, le caractère évolutif et imprédictible du déploiement de l'informatique a engendré des constructions institutionnelles qui n'avaient pas de précédent. Le pressentiment de l'inadéquation des procédures traditionnelles de régulation a incité le législateur à rompre avec l'habitude qui consistait à tout dire dans une loi et ses textes d'application. Pour ce faire, il fut décidé que la Loi Informatique et Libertés ne comporterait que des principes généraux et que serait confiée à la première autorité administrative indépendante créée en France, la charge de veiller à ce que toutes les générations de technologies de l'Information et de la Communication à venir moulent leurs usages dans les principes de la loi. S'agissant de la loi, le rappel de son article 1 suffit à faire apparaître l'esprit du législateur. «L'informatique doit être au service de chaque citoyen. Son développement doit s'opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques. » La grande innovation de la Loi de 1978 est liée à la décision du législateur de déléguer le suivi de ce qui allait advenir à la Cnil, autorité administrative indépendante ainsi décrite dans le texte. «Une Commission nationale de l'informatique et des libertés est instituée. Elle est chargée de veiller au respect des dispositions de la présente loi, notamment en informant toutes les personnes concernées de leurs droits et obligations, en se concertant avec elles et en contrôlant les applications de l'informatique aux traitements des informations nominatives. La commission dispose à cet effet d'un pouvoir réglementaire, dans les cas prévus par la présente loi. » Outre les dispositions administratives et financières le régissant, les dispositions de la Loi du 10 août 1922 relative au contrôle financier ne sont pas applicables à sa gestion et les comptes de la Commission sont présentés au contrôle de la Cour des Comptes. L'indépendance de la Commission est assurée par des garanties contenues dans la loi et notamment: - le mode de désignation des membres de la Cnil dont douze sur dix-sept sont élus par les corps ou assemblées auxquels ils appartiennent; - la composition de la Cnil qui associe des parlementaires, des hauts magistrats et des personnalités désignées en raison de leurs compétences; - la durée du mandat des membres de la Cnil, 5 ans, et l'impossibilité de mettre fin à celuici, sauf démission; - l'existence V d'incompatibilités entre la qualité de membre de la Cnil et d'autres fonctions, notamment celle de membre du gouvernement; - l'élection par la Cnil de son président et de ses vice-présidents. 218

HERMÈS 37, 2003


Dans la toile: araignée ou abeille

Les missions de la Commission sont: - veiller au respect de la loi; - protéger la vie privée et les libertés individuelles ou publiques; - protéger l'identité humaine; - garantir le droit d'accès; - instruire les plaintes; - informer et conseiller; - recenser les fichiers; - contrôler; - réglementer; - s'informer; - proposer. S'agissant du droit de chacun, essentiel, car c'est de là que tout procède: - le droit à l'information préalable qui se manifeste par une obligation d'information au moment de la collecte des données et la transparence des traitements automatisés; - le droit à l'oubli; - le droit d'accès direct; - le droit d'accès indirect pour certaines données nominatives qui ne sont pas directement accessibles par les personnes; - le droit d'opposition; toute personne peut décider elle-même de l'utilisation de données la concernant et a donc la possibilité de s'opposer à figurer dans certains fichiers ou de refuser la communication des informations qui la concernent à des tiers; - le droit de rectification qui permet à toute personne défaire corriger les erreurs qu'elle a pu déceler à l'occasion de communication des informations la concernant. À l'épreuve de la durée, la Loi Informatique et Libertés a tenu la promesse de ses créateurs. Pertinents dès 1978, les principes fondamentaux de la loi n'ont pas vieilli comme est largement confirmée l'innovation que constituait l'idée d'escorter la loi par la Cnil, à l'indépendance avérée. Une preuve de l'efficacité du dispositif né de la Loi de 1978 vient de l'Union européenne dont tous les membres se sont dotés d'institutions similaires. Au-delà de toute autosatisfaction reste bien sûr la question centrale que les techniques posent avec toujours plus d'acuité puisqu'elles sont de plus en plus intrusives et susceptibles de porter atteinte à l'identité humaine, aux droits de l'homme, à la vie privée, aux libertés individuelles ou publiques. Plus qu'hier et moins que demain, ces risques appellent la vigilance de chacun sachant que toutes les institutions du monde ne sauront parer aux dangers nouveaux, sauf à accepter le totalitarisme qui fait toujours alliance avec la plus grande surveillance. HERMÈS 31, 2003

219


Alain Le Diberder Communication

and life in virtual environments

(CLVE)

LA MESURE D'AUDIENCE DES NOUVEAUX MÉDIAS: UNE BONNE RÉPONSE MAIS QUELLE EST LA QUESTION ?

Les mesures d'audience sont à l'économie des médias ce que les mots sont au langage. Malgré leur apparente scientificité, ces chiffres bruts et parfois brutaux n'ont guère de sens objectif en eux-mêmes mais seulement replacés dans un contexte plus général. Contexte qui peut, à son tour, être décrit autour de trois pôles: la qualité technique du dispositif de mesure, la pertinence des concepts mesurés, enfin l'insertion dans un processus de prise de décision. Ce dernier point est essentiel. Ainsi, dans les chaînes généralistes, il y a toute une écologie de la donnée d'audience qu'ignorent allègrement les critiques primaires de la «dictature de l'audimat». Un même chiffre lu par la régie publicitaire, la direction des programmes, les financiers, l'équipe de l'émission n'aura pas le même sens, et une bonne partie de l'activité professionnelle des «gens de télé» consiste en des arbitrages complexes entre ces différentes visions d'un même chiffre. À l'inverse, dans le cas des chaînes de télévision thématiques comme dans celui des sites Web de contenu, c'est justement la manière dont les mesures d'audience s'insèrent dans les processus de décision professionnels qui pose le plus de problèmes. Leur écologie est particulièrement pauvre. De ce fait, une dictature du MédiaCabSat1 serait bien plus pernicieuse que celle, prétendue, de l'Audimat. HERMÈS 37, 2003

221


Alain Le Diberder

Le constat du danger et de la relative inutilité des mesures d'audience des nouveaux médias Deux exemples tirés de l'actualité française de l'été 2003 peuvent l'illustrer. Quelques jours après la publication du MédiaCabSat du premier semestre 2003, on apprenait que la survie de la chaîne TV Breizh était menacée, ses résultats d'audience stagnant à 0, 4 % de part de marché. Le PDG de TF1, principal actionnaire de la chaîne, avait en effet demandé qu'elle double son audience au premier semestre 2003. Presque simultanément, à la fin du mois de juin, c'est le site Web du journal L'Equipe qui annonçait une réduction du tiers de ses effectifs. Mais cette fois-ci l'audience n'était pas en cause: le site de L'Équipe, avec 8 millions de visites en juin 2003 était au contraire le troisième site de contenus français derrière ceux du Monde et de TF1. Depuis sa création trois ans auparavant, le taux de croissance de l'audience du site était de plus de 170 % par an. Mais les recettes publicitaires étaient insuffisantes. Il est également intéressant de noter que les chaînes thématiques françaises, qui pathétiquement saluent chaque vague de mesure d'audience du MédiaCabSat par une salve de communiqués de presse triomphants, ne tirent de la publicité qu'un sixième de leurs recettes, le reste provenant des redevances versées par les distributeurs2. Elles ont donc beaucoup moins à gagner qu'à perdre à mesurer leurs performances principalement sinon, en fait, uniquement par ces données d'audience. La quasi-totalité des quelques 90 chaînes françaises de ce type est en effet déficitaire, bien qu'elles représentent près de 10 % de l'audience globale de la télévision, et plus du tiers dans les seuls foyers où elles sont reçues. La situation des nouveaux médias est donc apparemment très déprimante: une mauvaise mesure d'audience peut les condamner, mais une forte audience ne conduit pas forcément à des recettes suffisantes. LCI, par exemple, enregistrait en 2002 un déficit d'exploitation de l'ordre de 7 millions d'euros 3 . Un tel constat aurait donc dû conduire à la disparition de l'ensemble de ces bébés-médias aussi économiquement mal nés. Et pourtant, c'est bien l'inverse qui se produit: le nombre de chaînes thématiques a même tendance à croître, et l'audience des sites Web d'informations par exemple, dont aucun n'a fermé lors de la grande révision des stratégies Internet des médias en 2001, croît de 70 % par an. En apparence donc les mesures d'audience n'ont pas prouvé qu'elles pouvaient dynamiser les recettes des nouveaux médias, mais elles peuvent leur coûter la vie en incitant les actionnaires à se retirer.

222

HERMES 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question ?

La quantité d'audience, degré zéro de la connaissance d'une pratique Il est sans doute utile de rappeler cette banalité: l'audience, et plus généralement la quantité d'usage effectif d'un bien ou d'un service, n'est qu'une des manifestations possibles de son utilité. Les éditeurs d'encyclopédies le savent: une majorité de leurs clients ne se servent pratiquement jamais de leur produit, mais cela n'en empêche pas une grande partie de se procurer l'édition suivante. Il y a toute une catégorie de biens et de services dont l'utilité suprême est même de ne pas servir: les airbags dans une voiture, les contrats d'assurances, les dispositifs de sécurité. On ne songerait pas à mesurer le succès des airbags à leur «audience». Il y a enfin, dans les déterminants d'une consommation, achat d'un équipement ou souscription à un service, une part essentielle dont on chercherait en vain la trace, ensuite, dans l'observation des pratiques réelles. Sinon, il ne se vendrait pas en France autant de véhicules tout-terrain et de voitures dépassant les 200 km/h. Banalité. Pourtant certains actionnaires des chaînes thématiques semblent l'oublier. C'est peut-être en raison de la proximité apparente des chaînes thématiques de télévision avec les chaînes hertziennes. La paresse intellectuelle consiste à dire que puisque dans les deux cas, c'est de la télévision, la «dictature de l'audimat» des unes peut bien servir de principe de réalité aux autres. Mais qu'on se souvienne des déboires de l'exploitant du câble parisien qui, ayant constaté que l'audience de CNN était infime parmi ses abonnés, décida de l'ôter du service de base. Les réactions et notamment les menaces de désabonnement furent violentes. «Je paie pour disposer de CNN, non pour la regarder. » semble avoir dit la demande, avec véhémence. C'est un phénomène bien connu dans la presse écrite. Certaines rubriques semblent peu lues, voire parfois pas du tout si l'on suit les conclusions des études, mais si le journal a le malheur de les supprimer, il perd des lecteurs. Dans la plupart des médias l'audience globale n'est pas la somme des audiences partielles. Sinon, on pourrait se contenter de les faire gérer par leur régie publicitaire. Or, pour regarder une chaîne thématique donnée, il faut s'être préalablement abonné à un service plus global, bouquet de télévision par satellite ou réseau câblé. C'est à ce moment seulement que le client effectue une transaction, et il le fait en fonction de l'intérêt, pour lui et ses proches, de disposer d'un bouquet de services. S'il ne se sert ensuite jamais ou très rarement de certains de ces services, il va certes avoir une plus forte probabilité de résilier son abonnement, mais ce n'est pas sûr. Et sa décision finale sera fonction non d'une évaluation quantitative de sa consommation effective mais d'une plus ou moins grande satisfaction globale.

HERMÈS 37, 2003

223


Alain Le Diberder

Aujourd'hui on frôle l'absurde quand les services interactifs de la télévision numérique, tels que les guides de programmes, les services de jeux ou de banque à domicile, voient eux aussi leur «audience» mesurée. En effet l'utilité de ces services réside parfois, au moins partiellement, dans le fait de ne pas servir souvent. Ainsi il suffit de mal concevoir le magazine papier qui présente les programmes d'un bouquet pour augmenter l'audience du guide électronique des programmes, et inversement. Ainsi la satisfaction retirée d'un service météo interactif n'est pas directement déductible de son degré d'utilisation: certains utilisateurs peuvent très bien être très occasionnels mais avoir un besoin impérieux de cette information et en retirer une forte satisfaction. Il faut souhaiter aux chaînes thématiques, et à ceux qui y travaillent, que toutes les leçons de la crise des services du Web de 2000-2001 soient tirées. Des auteurs américains avaient, dès 19974, attiré l'attention des investisseurs sur le fait que l'économie d'un site Web ne reposait pas principalement sur l'audience mais sur deux paramètres: la satisfaction des utilisateurs d'une part, la correspondance entre les coûts réels et les recettes à court terme d'autre part. De nombreux sites à forte audience mais très déficitaires (celui du magazine Playboy par exemple) coexistaient avec de «petits» sites rentables, la plupart du temps consacrés à des sujets très pointus. Dans un contexte de croissance rapide du nombre d'internautes, les données d'audience étaient trompeuses: les très nombreux nouveaux arrivants avaient tendance en découvrant le Net à tester les noms de domaines très connus, leur assurant donc une forte fréquentation. Une proportion variable d'entre eux étaient déçue et ne revenait plus. Mais comme ils étaient en permanence remplacés par des internautes plus débutants encore, ce phénomène était masqué. En revanche certains sites spécialisés, même mal référencés par les moteurs de recherche, captaient peu à peu un public restreint, mais fidèle, autorisant un modèle économique cohérent. Un second aspect du problème résidait dans le coût d'acquisition d'un nouveau visiteur. Au plus fort de la «bulle Internet» il était courant de lire sous la plume d'analystes financiers réputés qu'un internaute «valait» plus d'un millier de dollars. Cela voulait dire qu'il n'aurait pas été irrationnel, pour attirer des investisseurs, de payer plusieurs centaines de dollars un quidam, simplement pour qu'il vienne cliquer sur un site. L'absurdité de cette proposition fait qu'elle paraît aujourd'hui à peine crédible, mais elle était très répandue à la fin de 19995. Sans aller jusqu'à payer les internautes directement, certains sites, y compris de tout petits services animés par des start-ups, se mirent à dépenser des fortunes en campagnes publicitaires. Un internaute nouveau coûtait alors, en publicité, jusqu'à un siècle de recettes publicitaires. Le problème principal était là encore le système de prise de décision. Le succès autoproclamé de ce nouveau média avait attiré de nouveaux «décideurs», en grande partie incompétents, et qui n'écoutaient pas les remarques prudentes des spécialistes. Rappeler les analyses américaines sur le fait que l'audience n'était pas le critère et qu'il fallait 224

HERMÈS 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question <

proportionner les dépenses aux recettes actuelles, vous classait immédiatement dans les passéistes incapables de comprendre les mécanismes de la «nouvelle économie». Et bref, à n'importe quel prix, il fallait que les sites aient «de l'audience». C'est dans ce but que les sites Internet devinrent, en 2000, le premier secteur annonceur sur le marché publicitaire français. Situation ridicule pour un média sensé se financer par la publicité, cette année-là, les dépenses du secteur en publicité représentèrent environ 30 ans de recettes. Et encore: ces recettes étaient elles-mêmes largement composées des dépenses publicitaires des autres sites6. Quel fut le résultat de cette course à l'audience dispendieuse? Les recettes publicitaires du Web... diminuèrent en 2001. La progression de l'audience ne fut pas significativement différente de celle des années précédentes. Mieux encore, la plupart des sites qui avaient suivi une stratégie de croissance rapide de leur audience (le portail Vizzavi, les sites féminins, les sites du groupe PPR par exemple) furent des échecs spectaculaires, alors que ceux qui s'en tirèrent le mieux en audience (Le Monde, TF1, Libération, L'Équipe) se contentèrent de l'autopromotion sur leur média de base7. En définitive, l'incompétence des dirigeants fut nourrie non seulement par celle des milieux financiers mais aussi par une erreur plus « industrielle », la confusion entre audience, audience rentable, et dépenses rentables pour accroître l'audience. Le système intellectuel pour accueillir les données d'audience n'existait pas et le résultat en fut catastrophique.

La nouvelle frontière des systèmes de mesure: évaluer la satisfaction Il n'est pas inutile à ce stade d'allumer deux contre-feux. D'abord, l'accumulation d'exemples d'usages inefficaces des données d'audience ne veut pas dire que ces données soient inutiles ni qu'il ne faille pas chercher à les perfectionner. Les chiffres issus des études Cybermétrie ou MédiaCabSat, pour ne parler que de Médiamétrie, décrivent bel et bien un aspect de la réalité. En second lieu, les analyses qui précédent ne signifient pas que n'importe quel site Web à faible audience est du coup promis à un bel avenir, ni qu'une chaîne thématique à part de marché nulle démontre ainsi sa « différence» et donc son utilité. Mais les éditeurs de contenus et les distributeurs ont tout intérêt à développer ensemble un corps de connaissances, au sein duquel les chiffres mesurant l'audience auraient toute leur place, qui aiderait à prendre les bonnes décisions de lancement, de financement voire de maintien ou de suppression des services. Pour cela il faut tenir compte d'un ensemble de paramètres dont certains pour l'instant ont la faiblesse d'être qualitatifs ou connus d'une HERMÈS 37, 2003

225


Alain Le Diberder

partie seulement des protagonistes. En attendant, il y a une certaine naïveté ou hypocrisie à faire comme si l'ensemble de ce corps de connaissances existait. Et le pot de fer de la mesure quantitative de l'audience des nouveaux médias risque fort de briser le pot de terre des autres dimensions. Généralement, les décideurs trouvent que les données dites qualitatives «peuvent attendre», quand elles ne sont pas considérées comme des «arguties» ou du baratin. La télévision généraliste a mis des décennies à inventer l'équilibre complexe entre ces facteurs et elle y est parvenue: tout le monde sait que, même sur TF1 ou M6, il y a des émissions dites «d'image» mais nécessaires auxquelles on ne demande pas de réaliser la part d'audience moyenne de la chaîne. Mais la télévision généraliste est dans une situation bien plus favorable que les nouveaux médias de ce point de vue. Primo, les flux continus de données chiffrées, l'«audimat», sont apparus tardivement dans son histoire, trente à quarante ans après les débuts. Entre-temps, on avait eu le temps d'inventer des pratiques relativement élaborées que l'arrivée des chiffres a enrichies, perturbées, mais pas détruites. Ce n'est pas le cas pour les nouveaux médias, qui ont été bombardés de chiffres dès l'enfance de leurs traditions professionnelles. En deuxième lieu, même si les données quantitatives avaient disposé d'un monopole chez les généralistes, l'effet en eut été moins destructeur, car ces données d'audience sont en phase avec l'axe principal de l'économie de ces chaînes à savoir effectivement l'audience. Mais les chaînes thématiques tirent 85 % de leurs ressources des abonnements, directement ou indirectement. Et sur cette part essentielle de leur économie, elles disposent d'informations plus lacunaires, moins régulières et par rapport auxquelles leurs actionnaires se sentent moins «interpellés». Surtout, ces autres données sont produites par leurs distributeurs, qui ne sont pas neutres évidemment. Un peu comme si les données d'audience de la télévision étaient unilatéralement produites par les seules agences de publicité. On peut par ailleurs s'amuser de la notion de «part d'audience», très vite confondue avec une «part de marché», appliquée aux chaînes thématiques. Les premières vagues du MédiaCabSat se gardaient bien de les indiquer, ce sont les publicitaires qui les ont demandées (et même recalculées), et elles sont aujourd'hui communiquées largement. Bien entendu, la mauvaise monnaie chassant la bonne, elles n'ont pas tardé à occulter les données de pénétration ou d'audience en cumulé, pourtant beaucoup plus pertinentes ici. Car la «part de marché» n'a pas la même portée pour apprécier les performances de 90 chaînes thématiques hétérogènes que pour comparer 5 chaînes généralistes relativement proches. Il faut avoir peu de bon sens arithmétique pour s'étonner que la part de marché moyenne des thématiques soit «proche de zéro», alors qu'elles sont une centaine. Enfin, s'agissant de chaînes rediffusant beaucoup de «modules», la part de marché globale (sur six mois!) présente à peu près le même contenu d'information que la part d'audience moyenne des généralistes sur les six dernières années. 226

HERMÈS 37, 2003


La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question ?

Il ne serait pas inutile par exemple d'accompagner les données d'audience des chaînes thématiques d'un baromètre, neutre ou indépendant, de satisfaction ou de contribution à l'abonnement. Ce n'est pas un sujet hors de la portée des instituts de sondage. Il ne serait pas inutile non plus, dans la présentation des résultats, de tenir compte de l'ancienneté de la chaîne et de sa plus ou moins grande exposition sur le bouquet, peut-être simplement en créant des grandes catégories dans la numérotation. Il est un peu difficile de soutenir par exemple que la part de marché d'une chaîne occupant le canal 189 du bouquet est comparable à celle du canal 9. Ce problème ne se pose pas pour les grandes chaînes «historiques», encore qu'on a très longtemps soutenu que TF1 devait ses résultats d'audience en partie à son numéro 1. De même les données concernant les sites Web devraient faire apparaître le public régulier d'un site, à côté des données globales tous internautes confondus. Cette réflexion serait d'autant plus utile que de nombreux services tirent leurs ressources et leur légitimité de facteurs extérieurs au marché. Ils sont dans une économie dérivée: par exemple les sites Web des médias ne pourraient pas exister sans la prise en charge des coûts de contenus par leur média d'origine. De la même manière, la Chaîne parlementaire est un dispositif de service public dont la mesure de l'audience n'est pas vraiment utile, sinon pour alimenter des polémiques destinées à en changer les dirigeants. On a également beaucoup dit que la chaîne LCI était aussi, et peut-être d'abord, un instrument du lobbying de TF1. Ce type de services est ainsi en grande partie à l'abri des rigueurs de la sanction de l'audience. À l'inverse, des thèmes plus populaires que la politique, et moins protégés, ont besoin d'un système de mesure et d'analyse pertinent, dans lequel les enjeux et les habitudes de pensée des milieux publicitaires ne devraient pas peser plus que leur poids économique réel: au mieux 16%.

NOTES 1. Enquête de Médiamétrie qui mesure par vagues de plusieurs mois l'audience des chaînes du câble et du satellite. 2.

Selon le Guide des chaînes thématiques publié conjointement par le CSA, le CNC et l'ACCeS en janvier 2003.

3.

Source: rapport de gestion de TFl pour 2002.

4. John HAGEL et Arthur ARMSTRONG, Net Gain, Harvard, Harvard Business School Press, 1997. 5.

Voir par exemple Les Business Models de la Nouvelle Économie, Stratégies de développement pour les entreprises de l'Internet et du secteur high tech, par Bernard MAÎTRE et Grégoire ALADJIDI, Paris, Éditions Dunod, collection «Stratégies et Management».

HERMÈS 37, 2003

227


Alain Le Diberder

6.

Par exemple, en 2001, le site [aufeminin. com], pourtant considéré comme un modèle de réussite avait des recettes publicitaires de 2 millions d'euros, mais des dépenses de 3 millions.

7.

Ainsi, Jean Hornain, le directeur du site de L'Équipe déclarait avec clairvoyance, dès 2001: «Nous avons multiplié par quatre l'audience du site (entre 2000 et 2001). Toutefois, je tiens à préciser que nous ne faisons pas une course à l'audience car elle ne se traduit pas en chiffre d'affaires... Enfin, nous avons investi de manière raisonnable et avec une communication proche de zéro» (Source: Journal du Net).

228

HERMES 37, 2003


VARIA

Éric Sautedé Anne-Marie Laulan


Éric Sautedé Institut Ricci de Macao

LES ARTIFICES MODERNES DE L'AGIT'PROP Internet et crise du «SRAS» e n Chine

La Crise du « SRAS »1 a eu d'importantes répercussions sur l'économie, la politique et la société chinoises. Sans y voir un «Tchernobyl à la chinoise», force est de constater que le traitement de cette situation d'urgence par les autorités a suscité nombre d'interrogations, en Chine même et à l'étranger, sur le caractère responsable de la puissance étatique chinoise. Sommes-nous pour autant à l'aube d'une inflexion plus politique du chantier des réformes économiques entamé il y a 25 ans ? À l'origine du manquement aux responsabilités, l'on retrouve la question de la liberté d'information, puisque le semblant de transparence dont fait preuve le gouvernement de Pékin depuis le 20 avril 2003 n'est intervenu qu'après six mois de mensonge et de dissimulation, la rhétorique officielle martelant sans fléchir jusqu'à cette date que «la situation [était] sous contrôle». Sans les pressions extérieures, de la presse chinoise de Hong Kong à la presse internationale, en passant par l'Organisation mondiale de la santé (OMS), sans le courage d'un certain nombre de médecins locaux, pour qui l'impératif de santé publique rendait chaque jour ce déni de réalité plus dangereux, il apparaît évident que le Parti communiste chinois n'aurait pas été amené à «communiquer», au sens le plus marketing du terme, sans même parler d'informer, comme il le fait aujourd'hui. Il faut d'ailleurs insister ici sur le rôle cardinal qu'a joué l'ancienne colonie britannique: la malchance de Hong Kong a été la chance de la population chinoise et du reste du monde, précisément parce que la liberté d'expression y est — encore — préservée. HERMÈS 37, 2003

231


Éric Sautedé

Il apparaît par conséquent essentiel de s'interroger sur les carences de l'information en Chine, et tout particulièrement sur la place des moyens de communication et d'information modernes tout au long de cette crise, lesquels, pour n'avoir pas totalement brillé par leur absence, notamment s'agissant de la téléphonie, n'ont absolument pas rempli le rôle «alternatif» qu'on leur prête trop souvent. S'il n'y a pas vraiment lieu de s'en étonner, il semble néanmoins utile de rappeler le contexte politiquement corseté dans lequel « surfent » près de 70 millions d'internautes chinois, d'envisager les contradictions qui se posent entre «communication» et «information», et de montrer en quoi l'habilité toute pragmatique du gouvernement chinois a été de ne faire des concessions d'ouverture que là où sa légitimité ne pouvait être menacée et de travestir son action de propagande par de subtiles — et modernes — artifices. En dernière analyse, ce ripolinage de la propagande répond autant à une exigence de modernité du leurre qu'il résulte du leurre de la modernité2.

Tentation panoptique et expressions intersticielles de la liberté L'information sur les autoroutes chinoises de l'information demeure aujourd'hui encore extrêmement contrôlée3, en amont par les restrictions imposées aux supports et les dispositions réglementaires, et en aval par les sanctions. Cette mise en coupe réglée de l'Internet, qui ne bénéficie au mieux que d'une «liberté sous surveillance», explique largement le manque de réactivité du médium à la crise du SRAS. Tout d'abord, du côté de la connectivité internationale, les limites imposées sont avant tout politiques. Sur la base d'informations éparses, l'on sait depuis longtemps que certains sites étrangers sont en permanence ou occasionnellement inaccessibles de Chine. Les sites des grands organes de presse anglo-saxons (Washington Post, Herarld Tribune, CNN, BBC, etc. ) ainsi que les sites d'organisations étrangères s'intéressant à des sujets jugés politiquement sensibles — Tibet, Taiwan, Falungong, droits de l'homme en Chine, dissidence, etc. — sont les cibles privilégiées de ces blocages d'accès. La récente étude produite par une équipe de recherche de la Harvard Law School4 dirigée par Jonathan Zittrain et Benjamin Edelman apporte une confirmation sans appel de cette pratique, puisque sur les 200000 sites Web dont ils ont simulé l'accès à partir de Chine de mai à novembre 2002, 50000 étaient d'une façon ou d'une autre interdits d'accès (au moins une fois et en un lieu unique) et quelque 19000 étaient interdits d'accès en plusieurs endroits et à diverses reprises, alors qu'ils étaient dans le même temps accessibles aux Etats-Unis. Outre les sites évoqués plus haut, plusieurs pourvoyeurs de contenu liés à l'éducation et, précisément, au domaine de la santé sont régulièrement bloqués5. 232

HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

Le filtrage des données disponibles sur l'Internet chinois, aussi bien sur le Web que sur les forums de discussion, est également pratique courante en Chine. Tous les sites commerciaux chinois pourvoyeurs d'informations ou «d'espaces publics d'expression» la pratiquent. Les cybercafés eux-mêmes sont censés installer des logiciels qui mémorisent l'activité d'utilisateurs qui doivent auparavant donner une preuve d'identité aux gérants des établissements. Les grandes campagnes de remise en ordre des cybercafés du printemps 2001, du printemps et de l'été 2002, semblent avoir d'ailleurs largement porté leurs fruits dans ce domaine puisque ne subsistent effectivement en Chine que les cybercafés s'étant conformés à des réglementations draconiennes en matière de sécurité et d'administration. Les méthodes de filtrage sont d'autant mieux connues que la technologie utilisée a été «vendue» par de grandes sociétés étrangères, comme Cisco Systems (américaine) ou Global One (une joint venture de Sprint, France Telecom et Deutsche Telekom), qui en ont consciemment ignoré l'usage final6. L'existence des « renifleurs de paquets de données » qui permettent d'identifier les sites étrangers «subversifs», de filtres d'e-mails et des «grands inquisiteurs» {big marnas) utilisés sur les forums de discussion est aujourd'hui largement avérée et a même été directement reconnue par les autorités chinoises lorsque, en octobre 2002, un journal pékinois s'est fait l'écho de «fuites» défaillantes dans certains systèmes de filtrage7. Une enquête récente de Reporters sans frontières réalisée avec l'aide d'une journaliste chinoise de la BBC a également très bien montré que les forums de discussion hébergés par les grands portails chinois — [sina. com. cn, sohu. com, yahoo. com. cn] ou [tom. com] — étaient l'objet de l'attention continue des censeurs8. Plusieurs dispositions réglementaires complètent le dispositif de contrôle. Elles s'adressent autant aux utilisateurs qu'aux pourvoyeurs d'accès et de contenu. Il serait trop long de retracer ici toute l'histoire de ces textes, dont les premiers remontent à février 1996. Retenons simplement que les plus importants d'entre eux sont: l'arrêté sur la gestion des contenus sur l'Internet, adopté en septembre 2000 par le Conseil des affaires de l'Etat, lequel interdit aux pourvoyeurs de contenu — leur en imputant ainsi la responsabilité — la dissémination d'informations que le gouvernement juge dommageables et « malsaines » et le règlement sur les services d'information sur l'Internet, promulgué en novembre 2000, qui définit les contenus prohibés sur les forums de discussion et les sites d'information chinois et restreint la diffusion d'information provenant des médias étrangers (en somme, toutes les informations pouvant entrer dans la catégorie large et floue du «secret d'Etat»). Par ailleurs, depuis l'été 2001, tous les usages déviants de l'Internet ont fait l'objet d'une «criminalisation», puisqu'ils ont été mis en conformité avec les articles du code pénal se rapportant aux «crimes mettant en danger la sécurité nationale». D'autre dispositions au statut légal plus ambigu sont également en vigueur, comme la charte de bonne conduite et d'autodiscipline imposée, en mars 2002, par l'Association chinoise de l'Internet aux grands portails d'information et aux moteurs de recherche — 130 signataires dont Yahoo ! Chine. HERMÈS 37, 2003

233


Éric Sautedé

Enfin, les contrevenants à ces réglementations s'exposent à de graves sanctions. Selon l'organisation américaine Digital Freedom Network, quelque 34 personnes sont ou ont été emprisonnées pour des « crimes» liés à un usage dissident de l'Internet depuis janvier 20009. Si ce nombre ne paraît pas très élevé — mais les cas sont loin d'être tous recensés et, en matière de liberté, il suffit d'un cas de restriction pour qu'il mérite d'être dénoncé —, les «crimes» retenus contre les impétrants sont révélateurs de la largesse d'esprit du gouvernement chinois en matière de définition de la dissémination de secrets d'Etat et de la subversion: la détention préventive et de lourdes peines s'appliquent aussi bien à la personne ayant fait circuler des adresses e-mail chinoises sur les sites de la dissidence qu'à l'animateur d'un site jugé subversif ou au signataire d'une pétition en ligne réclamant la relaxe de certaines restrictions... et à celui qui manifeste ensuite sa désapprobation lorsqu'il apprend qu'un internaute a été placé en détention pour avoir signé cette pétition ! Le cas de Huang Qi, arrêté le 3 juin 2000, est particulièrement intéressant et vient de connaître son développement final puisque ce webmestre de Chengdu, dans la province du Sichuan, a été condamné en mai 2003 à cinq ans de prison pour subversion. Son site, www. 6-4tianwang. com (en référence à la répression du 4 juin 1989), se composait de forums d'appels à personnes disparues et, plus «grave», avait osé reproduire des articles en chinois réclamant la révision du jugement officiel des évènements de mai-juin 198910. Huang Qi fut inculpé en vertu des articles 103 et 105 du Code pénal, le premier article concernant «l'organisation, le complot ou tout autre acte, et l'incitation visant à diviser le pays ou à saper l'unification nationale», le second «l'organisation, le complot ou tout autre acte, et l'incitation visant à subvertir le pouvoir politique de l'Etat et à renverser le système socialiste». Si «l'organisation, le complot ou tout autre acte» sont assortis des peines les plus lourdes (de trois ans à l'emprisonnement à perpétuité selon le degré de responsabilité), la simple «incitation» est sanctionnée par une peine d'un «maximum de cinq ans d'emprisonnement ferme, de détention pénale, de contrôle ou de privation des droits politiques », à l'exception « des chefs et de ceux dont le crime est jugé grave » qui encourent un «minimum» de cinq ans d'emprisonnement sans remise de peine. C'est à n'en pas douter ce même article 105 qui pourra être invoqué lors de l'inculpation des quelques 107 personnes arrêtées en mai dernier dans 17 provinces pour avoir fait circuler de fausses rumeurs sur le SRAS par messages téléphoniques ou sur l'Internet11. On le voit, l'architecture du contrôle de l'Internet en Chine ne permet au mieux qu'une expression intersticielle et furtive de la liberté d'expression. Seuls les plus aguerris peuvent tourner la censure et au risque d'en payer très chèrement le prix. L'efficience du contrôle, par les règlements et leur mise en application, n'est pas simplement l'expression d'un réel pouvoir, mais permet également, pour reprendre une formule foucaltienne, de prendre en compte l'existence singulière des individus, imposant une «contrainte continue et minutieuse des prescriptions», sanctionnant la pratique individuelle, si bien que la censure exercée par les 234

HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

autorités publiques génère dans son sillage l'autre grand terme de cette perspective panoptique: l'autocensure préventive pratiquée par les opérateurs commerciaux chinois... et les utilisateurs.

Texto versus Internet Globalement, l'Internet a été soumis aux mêmes restrictions que la presse écrite s'agissant de la crise du SRAS et astreint à la conformité exigée par les organes de propagande du Parti communiste chinois. À l'exception de la petite fenêtre de floraison d'une relative liberté virtuelle entre les 4 et 17 avril, période d'hésitation au cours de laquelle la nouvelle équipe dirigeante emmenée par le président Hu Jintao et le Premier ministre Wen Jiabao s'apprêtait à lancer sa campagne nationale de lutte contre le mensonge et l'épidémie, seule la circulation de messages subversifs par téléphonie mobile, les fameux textos ont véritablement surpris le gouvernement chinois et les observateurs étrangers, par leur volume et la liberté de ton qu'ils affichaient. Tout naturellement, dans un contexte de désinformation totale et parce que l'épidémie de SRAS a d'abord eu pour principal foyer la province méridionale riche du Guangdong, puis Pékin, les échanges de textos ont été particulièrement importants en volume, puisque c'est là que l'on trouve les plus forts taux d'équipement en téléphonie mobile, avec des taux de pénétration dépassant les 60 %, c'està-dire proches de la plupart des pays développés. Pourtant, autant les messages postés que la nature du médium doivent nous conduire à la plus grande prudence s'agissant de la place de ce moyen de communication amené à jouer un rôle de substitution pour lequel il n'a a priori aucune vocation. En effet, communication ne veut pas dire information et si l'on veut bien admettre que les échanges de textos façonnent de nouveaux types de sociabilité, ils demeurent un outil de communication interpersonnelle, privée, bénéficiant juste d'une immédiateté, d'une capacité de dispersion et d'une portabilité inégalées. En dehors de cette sphère privée élargie, il n'y a absolument pas de hiérarchie ni de valeur intrinsèque de l'information. La preuve en est que si les échanges massifs de textos dans le Guangdong12 en février ont conduit à des mouvements de foules se ruant sur la pharmacopée chinoise ou le vinaigre pour combattre la maladie inconnue et inavouable, ils n'ont pas pour autant précipité à eux-seuls une prise de conscience nationale. S'agissant du contenu, cela s'est encore vérifié à Pékin en avril, les fausses rumeurs l'emportaient largement sur les vraies et pour quelques messages incisifs à l'égard des autorités, la plupart se contentait de rapporter des cas de SRAS avérés ou non. La fuite des Pékinois de souche ou d'adoption vers la campagne a certainement été accélérée par l'échange de textos, notamment lorsque ceux-ci annonçaient que l'armée chinoise allait HERMÈS 37, 2003

235


Éric Sautedé

«bombarder la capitale d'insecticide» ou que le gouvernement s'apprêtait à y imposer la loi martiale, mais en aucune façon, et ce n'est pas là leur vocation, n'ont-ils conduit à la mobilisation de manifestants défiant les hiérarques de Zhongnanhai, le Kremlin chinois, dans des rues devenues désertes. S'agissant du seuil de tolérance manifesté par le gouvernement face à ces rumeurs génératrices de « désordres sociaux », l'on peut sans conteste affirmer que tout est question de degré et que la surprise passée, la reprise en main se devait d'être dure. L'autre grande raison qui permet d'expliquer la relative tolérance initiale des autorités publiques à l'égard des échanges frénétiques de textos est d'ordre économique. Tous les opérateurs de téléphonie — tous étatiques — offrent de tels services. Et cela mérite d'être souligné, puisque les deux opérateurs de téléphonie fixe, China Telecom et China Netcom, sont censés se concentrer exclusivement sur le filaire et agissent donc dans ce domaine dans la plus entière illégalité. Il n'en demeure pas moins que ces deux sociétés représentent aujourd'hui, notamment grâce aux textos, quelque 6 % du marché mobile en Chine (18). Les textos et leurs revenus, bien que modestes et tirant effectivement les prix vers le bas, sont à présent conçus comme une arme stratégique dans un contexte de concurrence féroce et de guerre des prix. S'ils ne constituent certes pas l'antidote idéal à l'érosion du revenu par utilisateur, ils sont un outil indispensable dans la bataille pour les parts de marché: avec 95 millions de textos échangés en 2002, les revenus ont été multipliés par quatre par rapport à 2001 et sont passés à 6 milliards de yuans, alors que dans le même temps les revenus globaux provenant de la téléphonie mobile n'augmentaient que de 19 % et que le revenu par utilisateur baissait pour sa part de 19 %. La surprise passée, la mesure du danger des rumeurs — vraies et fausses — prise et la perspective d'une perte de revenus acceptée, le gouvernement chinois s'est rapidement donné les moyens de réduire son seuil de tolérance, car pour n'être pas de l'information, les nombreuses «rumeurs» véhiculées par les textos contrariaient la nouvelle donne d'une mobilisation nationale dans la lutte contre le SRAS: nous avons indiqué plus haut qu'il y avait eu, pour les seuls mois d'avril et mai, plus d'une centaine d'arrestations directement liées à la circulation de rumeurs; un technicien ayant participé à l'élaboration d'une nouvelle méthode de filtrage a confié que China Mobile et China Unicom singularisaient les abonnés envoyant plus de 100 messages par heure et que ces messages, ainsi que tous leurs destinataires, pouvaient être lus en moins de 15 minutes par les autorités13.

Les travestissements de la propagande Avec la décision de prendre enfin en compte la réalité, suite à la réunion extraordinaire du Comité permanent du Bureau politique, le 17 avril, au cours de laquelle le président Hu 236

HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

Jintao acceptait de reconnaître que le gouvernement avait menti et inversait la tendance pour mobiliser le Parti dans un combat de front uni contre l'épidémie menaçant la capitale et la nation toute entière, les premières mesures adoptées par le gouvernement furent particulièrement vigoureuses. Sur le front de la «communication», cela se traduisit tout d'abord par une grande conférence de presse organisée par le Bureau d'information du Conseil des affaires de l'État, le 20 avril, durant laquelle le vice-ministre de la santé Gao Qiang, en l'absence du ministre, révisa brutalement le bilan des cas de SRAS à la hausse (plus de 300 cas à Pékin), qualifia la situation de «sérieuse et préoccupante» — au point d'en annuler la traditionnelle et profitable semaine de vacances du 1er mai — et accepta de répondre, de façon claire, aux questions quelque peu embarrassantes posées par les journalistes chinois et étrangers présents dans la salle. Quelques heures après seulement, l'on apprenait que le ministre de la santé, Zhang Wenkang, pourtant un proche de Jiang Zemin, le président sortant, et le maire de Pékin, Meng Xuenong, étaient «démissionnes» de leur poste en raison de leur défaillance dans la gestion de l'épidémie. Plus encore que la réunion du 17 avril, forcément tenue à huis clos, c'est cette conférence de presse du 20 avril qui a sonné le glas du culte du secret et de la dissimulation préventive. Peut-on en conclure pour autant qu'elle inaugure une nouvelle ère de transparence? Ou au contraire, n'assiste-t-on pas simplement à un travestissement de la propagande pour laquelle le déni n'est plus une option? Cette conférence de presse du 20 avril a été reproduite en version intégrale sur de nombreux sites Web chinois, et tous les grands portails d'information, qu'ils soient d'Etat (xinhua. net, people. com. cn) ou commerciaux (sina. com. cn, sohu. com, netease. com) regorgent, depuis cette date, d'informations extrêmement précises sur la maladie et sur les actions du gouvernement pour la combattre. En somme, on est passé d'une ignorance totale où le citadin ordinaire avait «ouï-dire» par son téléphone les vertus curatives du vinaigre pour lutter contre le SRAS et pour qui la seule alternative était d'appliquer l'adage de Galien, le célèbre anatomiste grec du Ier siècle, «partir le plus tôt possible, aller le plus loin possible, revenir le plus tard possible», à une situation de véritable « sur-information » où toute personne disposant d'une connexion à l'Internet peut se tenir au courant des dernières avancées du décodage génétique du virus et télécharger dans le même temps un fichier musical qui lui permettra d'écouter la dernière chanson commandée par le gouvernement clamant sur un air entraînant que la victoire sur la maladie est proche. L'exemple certainement le plus probant de cette propagande modernisée peut se lire sur les pages dédiées au SRAS du site d'Information chinoise médicale et biologique abrité par l'Institut des sciences cardiovasculaires de l'université de Pékin14. Ce site est d'une incontestable richesse: on y trouve le dernier décompte du nombre de cas et de décès, la répartition par province, les mesures préventives à adopter, les dernières déclarations des spécialistes et des responsables politiques chinois, des schémas richement illustrés sur les HERMÈS 37, 2003

237


Éric Sautedé

modes de transmission, des croquis en coupe du virus, de nombreux articles de la presse chinoise... et même des articles de la presse étrangère (Washington Post, Reuters, etc). Passé l'étonnement — la reproduction d'articles étrangers est interdite en Chine, sauf si elle est approuvée par les organes de la sécurité publique, et le site du Washington Post, par exemple, est bloqué —, en examinant de plus près ces articles, l'on s'aperçoit en réalité qu'ils concernent tous des aspects techniques ou scientifiques de l'épidémie et que les liens sur lesquels il faut cliquer pour lire les articles sont en réalité hébergés sur le site de l'Institut, mais que par souci «d'authenticité visuelle», la présentation et les logos ont été fidèlement reproduits pour laisser à penser que la porte a été ouverte sur l'extérieur... Autant l'efficience des méthodes de contrôle décrites auparavant que la proactivité et le savoir-faire déployés par les autorités chinoises sur les autoroutes de l'information semblent contredire toute idée d'une «révolution de et par l'information». Ils rendent également caduque la vision erronée d'une actuelle direction politique n'entendant rien au nouveau médium en raison de l'obsolescence de ses cadres de pensée.

Modernité du leurre et leurre de la modernité Les nouveaux excès de communication, de surcroît biaisés, ne doivent cependant pas cacher la triste réalité: sans le courage de certains membres du personnel de santé dans un contexte de très fortes pressions internationales, la situation de mensonge cultivée par les autorités chinoises aurait pu perdurer jusqu'à extinction naturelle de l'épidémie — scénario optimiste — ou jusqu'à explosion d'une crise sanitaire nationale en retour des campagnes chinoises — scénario pessimiste. Se pose alors la question de savoir si leurs témoignages étaient plus motivés par la grogne populaire généralisée entretenue par les outils de communication modernes — ce dont nous doutons au vu de l'inertie face à la désinformation dans les semaines qui ont suivi le pic de l'infection dans le Guangdong, en février 2003 — ou, au contraire, par leur devoir «humaniste» de professionnels de la santé à un moment où le reste du monde avait les yeux braqués sur Hong Kong et la Chine, et où l'équipe de l'OMS présente en Chine faisait montre d'une forte résolution dans sa volonté de savoir. Beaucoup plus que les rumeurs circulant parmi les citadins pékinois ou cantonais, c'est donc bien l'attitude de « cavalier seul» de certains membres du personnel médical qui a acculé le gouvernement à l'ouverture et à revenir sur le déni en vigueur depuis plusieurs mois. Au premier rang de ceux-là, l'on trouve le médecin militaire retraité Jiang Yanyong, déjà connu à l'étranger et en Chine pour ses positions en faveur des étudiants ayant manifesté sur la place Tienanmen en 1989. Suite à la conférence de presse faite le 3 avril 238

HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

par le ministre de la santé Zhang Wenkang, selon qui l'épidémie de SRAS était «effectivement sous contrôle», Jiang Yanyong envoya le lendemain un message électronique à la télévision centrale de Chine et à la chaîne hongkongaise Phoenix, dans lequel il accusait Zhang de mentir et révélait que dans les seuls hôpitaux qu'il connaissait à Pékin, il y avait au moins 100 cas de SRAS (contre 12 officiellement) et que pas moins de six personnes en sont décédées. Son e-mail n'eut initialement aucune suite en Chine, mais il fut transmis à divers organes de presse étrangers et dès le 8 avril, ces propos étaient repris par l'hebdomadaire allemand Der Spiegel et le 9 avril sur le site Web du grand hebdomadaire américain Time. Les déclarations de Jiang Yanyong connurent ensuite un réel succès en Chine même, et furent largement distribuées par e-mail et postées sur les BBS des universités. Cette précipitation des événements est hautement représentative tant du potentiel que des limites de l'utilisation des communications modernes en matière d'information: les renseignements détenus par Jiang Yanyong qu'il aurait d'ailleurs pu transmettre aussi bien par téléphone ou par télécopie, ne valent que parce qu'ils ont été avancés par un locuteur respecté et qu'en rencontrant un large écho dans la presse étrangère, ils se trouvent propulsés au rang d'information. À n'en pas douter, l'inquiétude du gouvernement a été principalement de voir cette attitude de «cavalier seul» se multiplier, moins que d'assister à la mise en contradiction de la version officielle sur des forums de discussion nécessairement restreints et bien vite nettoyés. Une fois encore, le projet et sa légitimité passent avant le médium. L'analyse de l'état du système de santé en Chine, notamment en milieu rural, que de nombreuses études jugent aujourd'hui déliquescent et hautement inégalitaire puisqu'il est payant, dépasserait largement le cadre de cet article. Le rappel de quelques données chiffrées permet néanmoins de se faire une idée de la «modernité à la chinoise». Il y avait, en 2001, 2, 1 millions de médecins en Chine, soit, selon les chiffres officiels, six médecins pour 100 000 habitants. En France, au 1er janvier 2002, il y avait 237 470 médecins, soit 330 médecins pour 100000 habitants. Si l'on se tourne à présent du côté de la téléphonie mobile, il y avait, en 2001, 206 millions d'abonnés à une ligne mobile en Chine et 38, 6 millions en France. Les taux de pénétration étaient respectivement de 16% et de 64, 7 %. S'il faut se garder des conclusions hâtives, il n'en demeure pas moins, n'en déplaise aux tenants d'une vision banalisée de la modernisation chinoise, que lorsqu'il s'agit d'un «service commercial» éminemment moderne et rentable, la Chine se situe dans un rapport de 1 à 4 comparée à un État développé tel que la France. En revanche, quand il s'agit d'un «service public de base», tel que la santé, le rapport passe de 1 à 55 ! L'on se retrouve dès lors dans un paradoxe remarquable où la population urbaine de Chine peut facilement communiquer et échanger sur les carences des pouvoirs publics sans pourtant jamais avoir les moyens de pousser plus avant la contradiction — absence de liberté d'expression — et encore moins d'essayer d'y changer quelque chose — absence de liberté d'association. HERMÈS 37, 2003

239


Éric Sautedé

Le Maître Mot de la nouvelle équipe dirigeante issue du XVI e congrès du Parti communiste chinois de novembre 2002 semble être d'établir une «société modérément prospère» (xiaokang shehui), montrant ainsi qu'elle veut corriger les écarts de richesse devenus trop patents et trouver les moyens d'un plus juste partage de la croissance. Les conséquences de la crise du SRAS tendraient à montrer que le régime devra également dorénavant faire sienne l'exigence d'une «information modérément libre». Néanmoins, il ne fait aucun doute que les dirigeants chinois auront à cœur d'entretenir une conception étroite de cette «modération», et les développements récents qu'a connu l'Internet chinois indiquent très clairement que la boîte de Pandore, contrairement aux idées reçues, peut simplement demeurer «entrouverte».

NOTES 1.

SRAS: Syndrome respiratoire aigu sévère d'origine virale qui affecte en particulier la Chine depuis novembre 2002, et le reste du monde depuis mars dernier. Le SRAS a affecté 8422 personnes, dont 916 décès, dans 32 pays. La Chine (foyer initial) et Hong Kong comptant respectivement 5327 et 1755 cas, et 349 et 300 décès, selon les chiffres de l'OMS. En chinois, le nom du SRAS correspond strictement à «pneumonie atypique», soit feidianxing feiyan, ou de façon ramassée feidian.

2.

Cet article est une version remaniée de «Les leurres de la modernité. Internet, information et crise du SRAS en Chine», Perspectives chinoises (Hong Kong), n° 76, mars-avril 2003.

3.

Pour une analyse précoce qui demeure valable encore aujourd'hui, voir Emmanuel PARODY et Éric SAUTEDÉ, «Internet en Chine: une modernité qui tolère mal le contrôle», Perspectives Chinoises, n° 29, mai-juin 1995, p. 37-43. Pour des publications plus récentes présentant un bon tour d'horizon des méthodes de contrôle, voir Michaël S. CHASE et James C. MULVENON, You've Got Dissent! Chinese Dissident Use of the Internet and Beijing's Counter-Strategies, Santa Monica, Ca., Rand Corporation, juin 2002, 114 p.; Edward YUNG, «Beyond the Great Firewall», China Economic Quarterly, octobre-décembre 2002, p. 50-53; et Shanti KALATHIL et Taylor C. BOAS, Open Networks, Closed Regimes — The Impact of the Internet on the Authoritarian Rule, Washington D. C., Carnegie Endowment for International Peace, 2003, 218 p.

4.

[http: //cyber. law. harvard. edu/filtering/china/].

5.

[http: //www. aidshealth. org/], [http: //www. mentalhealth. com/] et [http: //www. healthinchina. com/].

6.

Ethan GUTMAN, «Who Lost China's Internet ? », The Standard, 25 février 2002.

7.

South China Morning Post, 24 octobre 2002.

8.

Reporters sans frontières, «Vivre dangereusement sur le Net», 12 mai 2003, [http: //www. rsf. fr/imprimer. php3?id-article=6792].

9.

Pour un portrait de ces internautes emprisonnés, voir [http: //www. dfn. org/focus/china/netattack. htm].

10. Voir [http: //www. 6-4tianwang. com/nh/2000/200303012044. shtml].

240

HERMÈS 37, 2003


Les artifices modernes de l'agit'prop. Internet et crise du «SRAS» en Chine

11. South China Morning Post, 10 mai 2003. 12. Libération, 3 avril 2003. 13. Reuters, 12 mai 2003. 14. [http: //cmbi. bjmu. edu. cn/cmbidata/sars/index. htm].

HERMES 37, 2003

241


Anne-Marie Laulan Société française des sciences de l'information et de la communication

(SFSIC)

INFORMATION ET SOCIÉTÉS La canicule de l'été 2003 n'a pas empêché de grandes interrogations sur la façon dont les différentes sociétés gèrent leurs moyens d'information. Cette «pression» mise sur les chercheurs s'explique d'abord par la proximité du sommet mondial sur la société de l'information (SMSI), prochaine étape à Genève en décembre 2003, avant Tunis en 2005. Le colloque de Strasbourg lui est spécialement consacré. Mais, en outre, la recherche universitaire en communication se trouve vigoureusement interpellée par la montée en ligne de jeunes chercheurs fortement marqués par l'actualité politique et sociale de leur «territoire» d'origine: d'où la remise en cause de concepts et de méthodes «universels» en ce domaine, comme en témoigne la conférence francophone tenue à Bucarest.

Colloque scientifique sur la « société de l'information, entre mythes et réalités », université Robert Schuman, Strasbourg 3, organisé par le Professeur Michel Mathien, directeur du Cerime, les 4 et 5 septembre 2003 1 Synthèse par le Comité scientifique

du

colloque

S'agissant de l'Internet ou de la fracture numérique, objets du prochain Sommet mondial sur la société de l'information, organisé principalement par l'UNESCO, l'UIT, on HERMÈS 37, 2003

243


Anne-Marie Laulan

entend un discours très général, axé sur les prouesses des instruments, qui gomme toute hétérogénéité, empêche l'idée même d'une médiation pourtant nécessaire entre les disparités culturelles, la polarisation des histoires régionales. La société civile, puis les chercheurs, ont tardivement pris conscience des enjeux géopolitiques et de la controverse entre le nouvel ordre mondial électronique proposé (imposé?) et les organisations traditionnelles des sociétés selon leurs cultures. La réflexion et les débats du SMSI s'articulent autour de trois axes: restriction/ou extension de la liberté d'expression ? Arbitrages économiques et techniques indispensables face aux libéralisme de l'OMC ? Veille juridique et éthique pour le respect de la dignité humaine, pour aboutir à une gestion transnationale des libertés acceptée par tous les États. Les chercheurs réunis à Strasbourg s'interrogent sur le vocabulaire utilisé, simple commodité de langage qui finit par acquérir une réalité substantielle. On doit entendre le terme «société de l'information» comme l'une des façons de formuler les évolutions techniques et sociales actuelles. En effet comprendre les processus et les discours par lesquels les sociétés construisent leur relation à l'information est nécessaire pour évaluer et accompagner ces évolutions. Par conséquent, une recherche scientifique, indépendante et critique, sur les relations entre information, techniques et sociétés, est indispensable pour la compréhension et la régulation des transformations en cours. Son soutien doit être assuré dans le cadre des moyens dédiés au développement de «la société de l'information».

Société de confiance ou de défiance ? Le développement de la « société de l'information » représente une opportunité pour certains droits et libertés, notamment le droit à la liberté d'expression. Les autorités publiques veilleront cependant au respect des autres droits ou libertés qui pourraient être plus facilement mis en cause dans un tel cadre, notamment le droit au respect de la dignité humaine, le droit au respect de la vie privée, la réputation ou les droits d'autrui. La recherche d'un équilibre entre les divers droits et libertés devient alors permanente. Si la défense d'intérêts publics comme la défense de l'ordre public ou la sécurité nationale peut être certainement légitime, rappelons toutefois que toute ingérence dans l'exercice d'un droit ou liberté appelle une interprétation étroite. La «société de l'information» reconnaît les droits et conventions nationaux et internationaux. Prenant acte du caractère mondial de son développement, elle favorise la recherche de consensus larges afin de favoriser l'émergence de principes communs, sans pour autant affaiblir les droits et libertés reconnues aux citoyens au niveau national. 244

HERMÈS 37, 2003


Information et sociétés

La protection effective de ces droits et libertés dans la « société de l'information » rend nécessaire l'intervention publique. Il s'agit de favoriser l'accès de tous aux services de la société de l'information, en réservant la possibilité pour les États de fournir un service public dans les domaines culturel, éducatif et linguistique, de préserver le pluralisme idéologique et la diversité culturelle et linguistique.

Instaurer le débat public En tout état de cause se fait jour la nécessité d'un débat public, encouragé par les gouvernements, informant les citoyens des positions prises et des choix faits dans le cadre du Sommet mondial sur la «société de l'information». De même la mise en œuvre des décisions arrêtées dans le cadre de ce sommet exige suivi attentif et évaluations régulières. À cet effet, il convient de créer une cellule de veille, observatoire non seulement des évolutions technologiques, mais aussi et surtout des enjeux, des succès, des lacunes et des échecs de la « société de l'information ». On ne peut aborder ces enjeux sans une démarche interdisciplinaire se situant à divers niveaux: les échelles géographiques, les jeux des acteurs, les outils... sans négliger leurs inter-relations. Cette approche permet à différentes disciplines de participer à la réflexion. En particulier, en prenant mieux en compte les contextes sociopolitiques et économiques, les patrimoines dont il faut garder les traces et la dynamique des modes d'intégration de ces outils.

Faire une place à la diversité des appropriations culturelles Il est de la responsabilité de nos sociétés de préparer les générations à venir à «la société de l'information» en développant la formation et en menant des actions de stimulation et d'appui à la recherche en réseau. S'imposent des travaux de recherche en partenariat SudSud et Nord-Sud sur les processus d'intégration des TIC et sur les formes de représentation qui les accompagnent (analyse des discours occidentaux, analyse des discours africains ou arabes) en développant des regards croisés et des études sur le terrain. Armand Mattelart rappelle, dans Le Monde diplomatique, août 2003, que «le caractère central de la problématique des modèles d'implantation sociale des technologies est loin d'être le fait de HERMÈS 37, 2003

245


Anne-Marie Laulan

toutes les composantes du mouvement social mondial». Les universitaires et chercheurs ont ici une responsabilité éthique pour mettre à jour ces diversités culturelles, objet de Déclaration de l'Unesco. Une militante du CRIS (campagne pour le droit à la communication dans la société de l'information) dénombre sept « tendances » au sein de la société civile; il conviendrait d'organiser de manière plus formelle le recueil des données, la notation ethnographique des expériences émergentes de part le monde (y compris par les populations immigrées vivant en occident qui utilisent l'Internet comme un «nouvel arbre à palabre»).

Une régulation nécessaire La connaissance imparfaite des données technologiques et géopolitiques suggère l'urgence d'un audit précis des grandes infrastructures de télécommunications internationales et de leurs coûts, en vue de mettre en place et de généraliser le «service universel» de télécommunications dont le principe a été arrêté par l'Union internationale des télécommunications et dont la responsabilité incombe aux opérateurs. Cet audit pourrait être confié aux Nations Unies et à leurs agences spécialisées. De plus, les gouvernements, en particulier celui de notre pays, se doivent, afin de garantir un fonctionnement démocratique de soumettre les normes et standards, élaborés par les scientifiques, les techniciens et les experts des organismes certificateurs, à un débat public large et de recourir, in fine, à des modalités politiques d'approbation et de décision. Enfin, la «société de l'information» s'enrichira de ses diversités linguistique et culturelle. À cet égard, la langue française, langue de travail des Nations Unies, trouvera, dans la civilisation de la communication numérique, un statut comparable à celui, envié, qui a toujours été le sien dans la civilisation de l'écrit.

246

HERMÈS 37, 2003


Information et sociétés

Des concepts universels pour la recherche en communication ? Première conférence internationale francophone en Sciences de l'Information et de la Communication (Cifsic), Bucarest, du 28 juin au 2 juillet 20032 Synthèse par Anne-Marie Laulan, membre du Conseil

scientifique

En dépit d'une chaleur écrasante, d'un remaniement ministériel en Roumanie, d'une période agitée sur le plan politique et social, 250 chercheurs se sont rendus à Bucarest, tous francophones, mais originaires d'une trentaine de pays différents (du Japon au Brésil, de La Réunion au Danemark, sans oublier l'Afrique... ). Cet élan remarquable répondait à l'incitation dynamique et sans relâche du Professeur Ioan Dragan, de l'université de Bucarest, de Nicolas Pélissier (université de Nice, Sophia-Antipolis) largement soutenus par la SFSIC pour la recherche et par l'Ambassadeur de France en Roumanie, S. Exc. Philippe Etienne pour le financement et l'accueil des participants. L'interrogation, classique, sur «les supports, les dispositifs et les discours médiatiques à l'heure de l'internationalisation», devait se répartir autour de quatre grands thèmes, décomposés en sous-sessions, avec un éclairage international pour les grandes séances de clôture. Mais le déroulement de la Conférence fait apparaître des « effets inattendus ». Les ateliers A portaient sur des thèmes conformes aux découpages internes de la discipline (journalisme, télévision... ). Mais le rapporteur de ce groupe remarque, non sans un peu d'ironie, que les bases typologiques de ces noms de domaines sont d'une grande hétérogénéité; de ce fait, les intervenants se consacrent d'emblée à expliciter la construction de l'objet scientifique, dans un effort méthodologique et théorique d'autant plus surprenant que l'atelier expressément dévolu à ces questions (animé par J. -F. Têtu et Y. Jeanneret) n'attire qu'un public restreint (en nombre, pas en qualité). Jean-Michel Utard, politologue, constate pour sa part combien la diversité d'origine des chercheurs présents à Bucarest ancre les réflexions dans le contexte social et politique des pays évoqués, «entre parole du pouvoir et pouvoir de la parole, on retrouve ici la même interrogation sur la place et le rôle des acteurs dans les processus structurant la communication dans l'espace public ».

HERMES 37, 2003

247


Anne-Marie Laulan

La revanche du contexte Un vent de sociologie, d'anthropologie, de comparatisme, semble détourner les intervenants des descriptions les plus consacrées. Rien d'étonnant à l'attention portée par les chercheurs roumains à leur histoire et à leur actualité. Mais des chercheurs de La Réunion ou de La Martinique revendiquent eux aussi, (Idelson, Pulvar), une approche indiaocéanique (ou caraïbe) incluant l'insularité, le passé colonial, les découpages en clans ou en ethnies, les influences ultramarines autres que métropolitaines pour tenter d'arriver à démêler l'écheveau de complexité des transformations sociétales accélérées, en ces territoires. Nous voici très loin de l'illusion techniciste, avec la revendication d'une observation ethnographique des logiques inter individuelles ou des usages différenciés. Force du contexte encore, appelé à rendre compte d'échecs communicationnels en pays africains ou maghrébins; la session consacrée à l'internationalisation de la communication attire nombre d'auditeurs (solidement encadrés par T. Mattelard, M. Palmer, Y. Mignot-Lefebvre). Mais on s'interroge plutôt sur les logiques cachées présidant à l'adoption des normes technologiques, des noms de domaines, ou encore, inversement, à l'abandon de grands projets éducatifs liés aux techniques «révolutionnaires» de communication. Beaucoup de ressources et d'énergie sont mobilisées sans pour autant donner satisfaction aux acteurs impliqués, ni aux bénéficiaires supposés. Le recteur d'une université africaine s'indigne de la nuée d'experts prospecteurs pour la création de réseaux téléphoniques en son pays, sans aucune prise de contact avec les autorités, a fortiori sans la moindre évaluation de la demande éventuelle. «Divergence d'intérêts entre les parties impliquées, au niveau macro», constate Abdel Benchenna (Paris 10): méconnaissance du terrain d'accueil de ces projets de la part des experts chargés de la mise en œuvre, quasiabsence de préparation du terrain d'accueil de ces projets (informatisation de lycées marocains). Durant l'été 2003, chaud à tous les sens du mot, nombre de colloques ou d'universités d'été ont mis l'accent sur les fallacieuses promesses (libérales) de l'informatisation et de la téléphonie pour les pays en développement; des voix s'élèvent, chez les occidentaux, pour demander une évaluation des coûts de ces échecs répétés, dont «la boucle téléphonique» autour de l'Afrique est l'exemple le plus frappant de non-usage (mais les coûts et les intérêts à payer demeurent). Les professionnels de France Telecom sont les premiers à s'indigner des échecs dissimulés, dans l'indifférence des décideurs, en l'absence de tout dispositif d'évaluation.

248

HERMES 37, 2003


Information et sociétés

L'intérêt de l'approche comparative Les dernières sessions plénières s'efforcent d'apporter des «regards croisés»: état des lieux de la recherche francophone en différents pays européens, puis dans des régions du monde plus éloignées où l'influence française persiste (Amérique Latine par exemple). Guy Lochard, par exemple, dans une démarche à la fois historique et conceptuelle montre comment différentes vagues de penseurs français, à commencer par Auguste Comte, puis Morin, Bourdieu, Foucault, Mattelart puis encore Paul Ricœur ou de Certeau ont été utilisés par les acteurs brésiliens (à la fois sur le plan paradigmatique et politique). Avec la montée en force, au début des années 1980 au paradigme de la résistance (autres théories de la réception, attention portée à d'autres pôles de production audio-visuelle, soutien aux mouvements sociaux, urbains ou paysans échappant au contrôle des états), on s'appuie sur les auteurs issus des cultural studies. Mais souligne Lochard, il faut toujours se référer à la toile de fond historique et scientifique, sans raisonner en termes de domination ou même d'influence « Car il est à mon sens manifeste que certains chercheurs latino-américains ont anticipé sur un certain nombre d'interrogations qui se posent avec davantage d'acuité dans leur contexte mais concernent tout autant l'Europe». Et de critiquer les formes de néocolonialisme universitaire qui considèrent les échanges avec les pays du Sud comme de purs jeux d'alliances universitaires, décontextualisant la pensée scientifique, oubliant les hybridations et les métissages culturels. On ne peut tous les citer: Dayan, Schlesinger... Peter Dahlgren (Lund, Suède) évoque méthodiquement les différences théoriques et topiques entre les trois pays Scandinaves: le Danemark proche des Allemands et des Français, la Suède positiviste, sur un modèle américain... Des origines intellectuelles différentes ont engendré des traditions de recherche bien distinctes, sur des objets communicationnels assez éloignés. Nous voici loin de la «mondialisation» des concepts et des théories. Les exposés et les débats invitent à approfondir les échanges scientifiques au sein de la francophonie. Aussi, dans l'enthousiasme des fins de Congrès se décident: - la création d'une banque de données francophones dans le champ des SIC, projet soutenu par l'Ambassadeur de France et le recteur de l'Académie de Bucarest (sociologue de formation), confié à la SFSIC; - la réactivation des échanges universitaires franco-roumains, dès cette rentrée. Comme souligné lors de la session de clôture, l'idée de ce colloque francophone représentait un triple défi: faiblesse des moyens financiers, pleine période d'examen pour les universitaires, avec une distance géographique, un décalage culturel et méthodologique qui n'allaient pas sans risques. Le nombre de participants, leur soif d'échanger, le vœu de renouveler cette première expérience, autant de réponses pragmatiques à ceux qui déploraient un projet «aussi peu académique». HERMÈS 37, 2003

249


Anne-Marie Laulan

NOTES

1.

[cerime@urs. u-strasbg. fr] pour plus d'information sur les actes.

2.

Les actes du colloque seront publiĂŠs; si l'impatience est trop vive, solliciter Nicolas PĂŠlissier gardien des textes originaux [pelissie@iutsoph. unice. fr].

250

HERMES 31, 2003


HOMMAGES

À Heinz von Foerster À Robert K. Merton A Jean Drucker


HEINZ VON FOERSTER (1911-2002) LE PÈRE DE LA SECONDE CYBERNÉTIQUE

Heinz von Foerster, figure charismatique de la communauté internationale des scientifiques s'identifiant à l'héritage de la cybernétique, est décédé le 2 octobre 2002, dans sa demeure de Pescadero (Californie), entouré de ses proches. Il avait 90 ans. Physicien particulièrement doué pour les formalismes mathématiques, il fut aussi un philosophe intéressé par l'explicitation de l'épistémologie se dégageant du projet cybernétique.

L'ancrage européen Né à Vienne en 1911, les années de son enfance bourgeoise furent culturellement très riches: ses parents, et surtout ses grands-parents, recevaient chez eux en permanence une foule d'artistes, de penseurs, de scientifiques et de personnalités politiques dans cette Vienne du début du XXe siècle en pleine effervescence culturelle. Il y eut ainsi dans l'arrièrefond de ses années d'enfance, ce bourdonnement intellectuel, artistique et politique qui contribua certainement à aiguiser sa curiosité intellectuelle extrême, son intérêt soutenu pour les arts, notamment la danse et la musique, et son intelligence hors du commun. Heinz se plaisait à dire que c'était cette ambiance culturellement plurielle qui lui avait inculqué, dès son plus jeune âge, le désir de composer simultanément avec une multiplicité de regards pour se donner une vision de la réalité. Nous retrouvons là l'ancrage vivant de son rejet des visions mono-disciplinaires - artefacts des institutions académiques - et de son élan vers la fondation d'une perspective transdisciplinaire. Encore tout jeune homme, le hasard l'amène à assister à une conférence donnée à l'Université de Vienne par un certain professeur du nom de Ferdinand Scheminzky. La HERMÈS 37, 2003

253


Hommages

conférence s'intitule «Est-il possible de générer la vie artificiellement ? ». Il s'avère que cette conférence fait partie d'une série de rencontres organisées par les philosophes associés au «Cercle de Vienne». Il est amené ainsi très tôt à rencontrer la pensée de Rudolf Carnap, Hans Hahn et Ludwig Wittgenstein. Ces rencontres philosophiques seront décisives pour la formation de sa pensée: certains propos de Rudolf Carnap - notamment ses réflexions décapantes sur la signification du signe « = » (symétrie, réflexivité, transitivité) - le conduisent à lire le Tractacus Logico-Philosophicus de Wittgenstein. Il acquiert sa première formation disciplinaire en physique (maîtrise à l'Institut de technologie de Vienne, puis doctorat obtenu en 1944 de l'Université de Breslau). Surtout absorbé par des questions philosophiques, par la logique et les mathématiques, il acquiert, en tant que physicien, une spécialité en génie électrique. Quoique l'un de ses grands-pères ait été juif, il réussit à travailler à Berlin pendant la guerre, dans des laboratoires liés à la mise au point de technologies de radar. Il rentre à Vienne à la fin de la guerre. Pendant cette période, il habitera aussi en Silésie, l'entreprise où il travaillait y ayant été transférée. Son premier ouvrage scientifique consiste en une monographie sur la mémoire. Fasciné par le constat qu'un sujet humain a tendance à oublier de plus en plus d'éléments au fur et à mesure que l'on recule dans le temps de la remémoration, il cherche à formaliser ce genre de phénomènes en vue de formuler une théorie de la mémoire. Il recourt finalement aux concepts de la mécanique quantique pour construire son modèle. Les conditions de vie d'après-guerre étant difficiles à Vienne - la ville, ravagée par les bombardements, est toujours occupée par les forces alliées -, il décide d'émigrer avec sa famille vers les EtatsUnis d'Amérique en 1949. Il apporte quelques exemplaires de son ouvrage intitulé The Memory - a Quantum Mechanical Treatise (titre anglais de son ouvrage écrit en allemand), ce qui pourra éventuellement servir de «carte de visite», se dit-il.

Les conférences Macy sur la cybernétique Un exemplaire de son ouvrage sur la mémoire étant parvenu à Warren McCulloch directeur du département de neuropsychiatrie de l'Université d'Illinois à Chicago - ce dernier se montre intéressé à le rencontrer. Même si Heinz von Foerster ne maîtrise pas encore très bien la langue anglaise, les deux hommes se comprennent rapidement dès qu'ils se retrouvent en face d'équations différentielles et autres formulations mathématiques ! Ce premier contact amène McCulloch, alors chairman de cette rencontre, à inviter von Foerster à participer à la sixième rencontre scientifique financée par la Fondation Josiah Macy Jr., organisée à New York sous le titre: Circular Causal and Feedback Mechanisms in Biological and Social Systems. 254

HERMÈS 37, 2003


Hommages

Le cycle des dix conférences Macy (1946-1953) sera plus tard reconnu comme ayant été le lieu de naissance de la cybernétique. C'est d'ailleurs Heinz von Foerster - nommé, dès la fin de cette sixième rencontre, «secrétaire» chargé d'établir les comptes rendus et éventuellement d'assurer la publication des Actes - qui proposa l'appellation «cybernétique» pour coiffer le titre de ces rencontres. Heinz raconte que Norbert Wiener, père de cette appellation et participant de ces rencontres (jusqu'à la septième, inclusivement), en fut ému et ravi. Les conférences Macy sur la cybernétique constituent un lieu de rencontres privilégiées où se côtoient à la fois divers spécialistes des sciences de la nature (biophysique, mathématique, logique, neurophysiologie, ingénierie électrique), en même temps que quelques chercheurs venus des sciences sociales comme le couple d'anthropologues Gregory Bateson et Margaret Mead. Ce projet interdisciplinaire consiste à réfléchir sur les patterns communs se dégageant d'une comparaison entre mécanismes de rétroaction présents dans divers organismes biologiques, y compris humains, pour les rapprocher de mécanismes propres à certains dispositifs techniques s'appuyant sur une théorie de l'information en émergence (Claude Shannon est là) et sur les ressources nouvelles d'une informatique (computer science) en train de naître (John von Neumann est l'une des personnalités présentes). Plusieurs observateurs considèrent que ces conférences ont donné naissance à certaines des idées-clés qui se trouveront ensuite discutées dans les domaines de l'informatique et de l'intelligence artificielle (AI), de l'étude des réseaux neuronaux, des théories des systèmes et de la complexité, et dans les sciences cognitives.

Le Biological Computer Laboratory (1958-1975) Alors qu'il enseigne depuis son arrivée aux USA au département ¿'Electrical Engineering de l'Université d'Illinois (Urbana) qu'il dirige, il fonde en 1958, dans la même université, le Biological Computer Laboratory (BCL). La visée scientifique de ce laboratoire montre une envergure interdisciplinaire et internationale. Il s'y retrouve des chercheurs issus d'horizons scientifiques divers (biophysique, biologie mathématique, neurophysiologie de la cognition, sciences et techniques informatiques, sciences cognitives, épistémologie). Bénéficiant d'importantes subventions en provenance notamment de l'Office of Naval Research, certains travaux du laboratoire conduisent à des percées du côté du traitement informatique en parallèle (parallel computing). L'une des pistes consiste à construire un nouveau type d'ordinateur muni de senseurs photo-électriques destinés à la reconnaissance d'objets multiples. D'autres travaux ont porté sur l'hématologie médicale; d'autres encore ont concerné la démographie. HERMÈS 37, 2003

255


Hommages

Heinz von Foerster était un penseur qui aimait provoquer la réflexion à partir d'idéesforce à saveur paradoxale, ou parfois apparemment tautologiques. L'une de celles-ci fut le fameux principe d'« ordre par le bruit» (order from noise principle), formulé dès 1960, et qui fut repris notamment par Henri Atlan dans sa théorie de l'auto-organisation. La thèse consiste à soutenir que le bruit qui s'introduit dans les systèmes auto-organisateurs engendre, en dernière analyse, moins de l'entropie qu'une ré-organisation du système qui s'oriente vers de nouvelles finalités. La reprise contemporaine de cette idée dans les sciences cognitives apparaît sous la forme des «résonances stochastiques» (Varela). Von Foerster fut l'un des principaux chantres des problématiques de l'auto-organisation, thématique qu'il approfondit d'abord avec Gordon Pask, son vieux compagnon, puis avec Humberto Maturana (rencontré une première fois en 1962) et enfin, avec Francisco Varela (qu'il fréquenta notamment lors d'une demi-sabbatique au laboratoire de Maturana à Santiago du Chili en 1973). En France, Edgar Morin fut l'un des premiers penseurs à prendre au sérieux les conséquences épistémologiques de ces idées d'«ordre par le bruit» et d'autoorganisation. Morin invita d'ailleurs Heinz von Foerster à participer au colloque sur l'Unité de l'homme: invariants biologiques et universaux culturels, tenu à l'abbaye de Royaumont en septembre 1972. Heinz von Foerster décida de fermer le BCL en 1975. Non seulement en raison de sa retraite, mais aussi parce qu'il constatait que les conditions de financement de la recherche aux Etats-Unis s'étaient significativement modifiées. Cette période marque en effet le début d'un désintéressement institutionnel de la part des grandes fondations, de même que des agences gouvernementales et militaires, pour le domaine des recherches fondamentales couvert par le BCL. Ce laboratoire poursuivait en quelque sorte des pistes de recherche et de développement en informatique qui ne rejoignaient pas les courants mainstream de l'Intelligence Artificielle (AI), secteur par ailleurs largement subventionné par ces agences fédérales (pensons au laboratoire de Marvin Minsky au MIT). Ceci illustrait parfaitement la bifurcation qui s'était amorcée assez tôt au sein des cybernéticiens, entre le courant dont émergèrent les développements fulgurants de l'AI (secteur qui fut largement subventionné malgré le fait que ces chercheurs n'arrivèrent pas, en fin de compte, à remplir leurs promesses ambitieuses de construire une «intelligence artificielle») et le courant des chercheurs davantage en résonance avec le projet initial de la cybernétique - dont ceux du BCL -, qui refusaient les définitions naïves de la cognition et de l'intelligence mises en avant par les ténors de l'AI. Ce ne sera que plus tard, pendant la décennie 1980, que les perspectives connexionnistes en sciences cognitives (et un nouveau style pour penser la robotique, empruntant d'ailleurs à l'esprit du BCL) rejoindront les intérêts des héritiers des deux communautés de scientifiques.

256

HERMES 37, 2003


Hommages

LA cybernétique de second ordre Les conférences et les écrits de von Foerster dont on se souviendra probablement le plus sont de nature épistémologique. C'est ici que se situe toute l'originalité du projet philosophique de Heinz von Foerster. Il propose une lecture épistémologique nouvelle du projet cybernétique. Alors que jusque-là, les chercheurs se sont contentés d'une cybernétique des systèmes observés (first-order cybernetics), von Foerster les invite à pratiquer plutôt une cybernétique des systèmes observants (second-order cybernetics), c'està-dire une approche qui ne peut plus exclure la pleine prise en compte de l'observateur inclus dans le processus d'observation. La première cybernétique - ou plus précisément, la «première lecture» du projet cybernétique, car les idées-force de la «seconde cybernétique» sont déjà en partie incluses dans certains échanges des conférences Macy pour qui sait les reconnaître - privilégie des notions comme celle de rétroaction, qui ne viennent que nourrir les théories du contrôle appliquées dorénavant aux comportements des organismes vivants. Pour von Foerster, cette idée de feedback orientée vers la théorie du contrôle n'est pas neuve, elle était déjà considérée dans les travaux de génie électrique. Ce qui est vraiment neuf et fascinant dans le projet cybernétique, c'est la prise en compte des conséquences logiques et épistémologiques des comportements de cette catégorie de systèmes qui peuvent agir sur eux-mêmes. Ce type de fonctionnement oblige l'observateur à formuler des paradoxes et à recourir à des concepts autoréférentiels, ce qui entraîne un véritable saut épistémologique au regard de la logique classique. Le cybernéticien de second ordre ne peut se contenter de recourir à la théorie des types logiques de Russell pour décrire les comportements paradoxaux des systèmes autoréférentiels: « I thought of the theory of types as a miserable excuse for someone who doesn't want to take on the responsability of saying 'I'm saying that', because you are not supposed to say Τ with the theory of types. » (... ) « Cybernetics, for me, is the point where you can overcome Russell's theory of types by taking a proper approach to the notions of paradox, self-reference, etc., something that transfers the whole notion of ontology - how things are - to an ontogenesis - how things become. » (entrevue de 1995). La cybernétique de second ordre consiste à prendre la dynamique du fonctionnement paradoxal au sérieux, ajoutait-il. Dans les termes d'André Béjin, le projet épistémologique de von Foerster consiste à « définir les conditions de possibilité d'une théorie de la description et d'une théorie de la cognition et (à) en définir les fondements». Rejoignant l'ambition de Maturana, il s'agit pour von Foerster « de rétablir la marge d'autodétermination de tout système cognitif. Un tel système ne serait pas ce que l'environnement fait de lui, il serait ce qu'il fait de ce que l'environnement fait de lui». L'une des thèses centrales de von Foerster consiste à soutenir que les objets et les événements de l'environnement n'ont pas d'existence intrinsèque: ils HERMÈS 37, 2003

251


Hommages

n'existent pas de manière indépendante de l'observateur qui les perçoit et qui s'en donne des représentations. Ainsi en est-il, a fortiori, des gestes mêmes de l'observateur liés au processus d'observation: «toute description est la description d'un observateur». Par cet aphorisme apparemment tautologique, von Foerster propose une critique radicale de l'idée d'objectivité en science. Il prône la ré-insertion systématique de l'observateur dans l'observation. L'observateur est inclus dans l'observation. De par son impossible absence du site et du processus de l'observation, l'observateur humain affecte les conditions de l'observation tout autant qu'il marque de son empreinte, à travers l'usage du langage, la formulation de ses descriptions. Von Foerster insiste pour que les scientifiques prennent en considération les opérations ou les descriptions autoréférentielles. Il indique que l'usage des «concepts de second ordre» (c'est-à-dire ceux construits avec le préfixe «auto» comme auto-organisation, auto-production, auto-réplication, auto-régulation) est indispensable dans la production des catégories scientifiques, en particulier si les scientifiques cherchent à questionner les postulats sous-jacents de la science contemporaine, systèmes invisibles de croyances souvent enchevêtrés dans la construction même des problèmes que la science cherche à résoudre. L'émergence de cette seconde cybernétique {cybernetics of cybernetics) sera fortement associée aux diverses perspectives constructivistes qui se sont constituées en philosophie et dans les sciences sociales et humaines. En d'autres mots, depuis les décennies 1960 et 1970, le noyau encore actif de chercheurs s'identifiant à l'héritage cybernétique a vu émerger en son sein un nouveau courant d'épistémologie constructiviste dont les trois figures pionnières ont été Heinz von Foerster, Gordon Pask et Humberto Maturana. Ce travail est aujourd'hui poursuivi notamment par Ernst von Glasersfeld, Ranulph Glanville, Klaus Krippendorff, Paul Pangaro et Stuart Umpleby.

Heinz von Foerster était un homme généreux, charmant, rempli d'humour, pince-sansrire, l'œil perçant, à la réplique intelligente et toujours pertinente, attentif aux questions que ses étudiants et collègues pouvaient lui poser. Il répondait souvent à une question par une autre question, ce qui provoquait instantanément le dialogue avec son interlocuteur. J'ai eu personnellement le privilège de le rencontrer une première fois en octobre 1974, à l'occasion d'un congrès de l'American Society for Cybernetics, association professionnelle qu'il avait d'ailleurs contribué à créer (notamment pour pouvoir rendre hommage et poursuivre l'œuvre de Warren McCulloch). Le hasard fit que je me retrouvai assis à ses côtés à l'occasion du banquet. Quand je lui dis que j'étais l'étudiant d'Edgar Morin, ses yeux se mirent à pétiller et il se rappela les bons moments passés avec Morin. Ce soir-là, il prononçait «l'adresse présidentielle» qu'il avait intitulée «Cybernetics of Cybernetics». Il 258

HERMÈS 37, 2003


Hommages

avait d'ailleurs amené sur les lieux du congrès quelques exemplaires du recueil du même nom, publication artisanale qu'il avait réalisée avec ses étudiants, dans le cadre de l'un de ses cours à l'Université d'Illinois. Dès les premiers mots de sa conférence, il sut capter immédiatement l'attention de son public, qui venait pourtant d'absorber un copieux dîner. D'entrée, il présenta ce qu'il appela le «théorème numéro un d'Humberto Maturana»: «Anything said is said by an observer»; il ajouta, l'œil rempli d'humour, «avec modestie» dit-il, ce qu'il appela le «corollaire numéro un d'Heinz von Foerster»: «Anything said is said to an observer». Le reste de sa conférence consista à montrer que ces propositions apparemment tautologiques contenaient quelques intuitions épistémologiques qui valaient la peine d'être prises au sérieux. Son public était conquis: il avait réussi à nous transmettre son plaisir d'aller au fond des choses, en gardant en permanence un sourire qui montrait qu'il était en pleine possession de ses moyens. Serge Proulx Université du Québec à Montréal

RÉFÉRENCES

BIBLIOGRAPHIQUES

ATLAN, H., Entre le cristal et la fumée, Paris, Seuil, 1979. BÉJIN, Α., «Théorie de la cognition et épistémologie de l'observation: présentation», in L'Unité de l'homme, Paris, Seuil, 1974. Centre Royaumont pour une science de l'homme, L'Unité de l'homme, sous la direction de E. MORIN et M. PIATTELLI-PALMARINI, Paris, Seuil, 1974. DUPUY, J. -P, AUX Origines des sciences cognitives, Paris, La Découverte, 1994. HEIMS, S., J., The Cybernetics Group, Cambridge, MIT Press, 1991. MATURANA, H., «Stratégies cognitives», in L'Unité de l'homme, op. cit., 1974. MORIN, E., La Méthode, 1. La nature de la nature, Paris, Seuil, 1977. VARELA, F., «Heinz von Foerster, the scientist, the man», Stanford Humanities Review, 4 (2), 1995. VON FOERSTER, H. éd., Cybernetics of Cybernetics, recueil de textes, Urbana, Illinois, Biological Computer Laboratory, 1974. VON FOERSTER, H., «Notes pour une épistémologie des objets vivants», in L'Unité de l'homme, op. cit., 1974. VON FOERSTER, H., «Cybernetics of Cybernetics » in K. KRIPPENDORF, éd., Communication and Control in Society, New York, Gordon & Breach Science Publications, 1979. VON FOERSTER, H., Observing Systems, (avec une introduction de F. Varela), Seaside, CA, Intersystems Publications, 1981.

HERMÈS 37, 2003

259


Hommages

VON FOERSTER, H., entrevue avec J. -P. DUPUY, P. LIVET, P. LÉVY et I. STENGERS, Généalogies de l'autoorganisation, Cahiers du CREA n° 8, École Polytechnique, Paris, 1985. VON FOERSTER, H., entrevue avec S. FRANCHI, G. GÜZELDERE et E. MINCH, Stanford Humanities Review, 4 (2), 1995. VON FOESTER, H., «Éthique et cybernétique de second ordre» in WATZLAWICK, P. et NARDONE, G., éd., Stratégie de la thérapie brève, Paris, Seuil, 2000. VON FOERSTER, H., Understanding Understanding. Essays on Cybernetics and Cognition, New York, Springer, 2003.

* Une autobiographie détaillée de Heinz von Foerster sera publiée en anglais en 2003. Il s'agit de la traduction de l'ouvrage: Monica Broecker & Heinz von Foerster, Teil der Welt, Carl-Auer-Systeme Verlag, Heidelberg, 2002.

260

HERMES 37, 2003


ROBERT Κ. MERTON (1910-2003) LE SOCIOLOGUE DE L'IRONIE

Robert K. Merton a été l'un des plus célèbres sociologues de la seconde moitié du XXe siècle et un grand théoricien de la pensée structuro-fonctionnaliste. Tout comme son maître Talcott Parsons, vis-à-vis duquel il prit rapidement ses distances, et qui avait construit le plus vaste monument de théorie sociale de l'histoire récente de la sociologie, Merton n'a été que tardivement et de manière incomplète traduit en France. Les sociologues français ont été en effet peu sensibles, à la différence de leurs homologues européens, à l'emprise de sa pensée sur la sociologie internationale. De même, la véritable souveraineté dont lui-même et Paul Lazarsfeld ont joui pendant de longues années, à partir de leur royaume du Graduate Department de Columbia University à New York, n'a été que très peu connue1. Les champs d'intérêt de Merton ont été nombreux mais unis par certaines préoccupations centrales: l'attention portée aux éléments structurels, qui facilitent ou rendent difficile l'initiative de l'acteur; la sensibilité aux «problèmes sociaux», à la déviance, à l'anomie, à la désorganisation; le souci constant de garder strictement liées la démarche théorique et la recherche empirique; un intérêt passionné pour les thèmes de la connaissance, c'est-à-dire pour les rapports entre science et société. Merton a d'abord été le fondateur de la sociologie de la science aux Etats-Unis; il en a défini l'objet et la méthode et l'a fait reconnaître par le monde universitaire. En suivant les traces de George Sarton et en développant sa pensée, Merton publie en 1938 la première analyse systématique du rapport entre la production scientifique et le milieu historico-social: Science, Technology and Society in Seventeenth-Century England. Ce thème du rapport entre science et société continuera d'occuper une place privilégiée dans son travail. Jusqu'à la fin des années 60, ses recherches et celles de ses élèves explorent «la structure normative de la science» et les configurations politiques, culturelles, sociales qui influencent la formation et le développement de la communauté scientifique. Merton connaît les difficultés de son programme et il cherche à éviter le risque du déterminisme, qui réduit les orientations de la science à n'être que des reflets des orientations culturelles les plus répandues dans une période historique, tout comme le risque de l'idéalisation excessive de la science, qui serait HERMÈS 37, 2003

261


Hommages

définie uniquement par ses impératifs de connaissance. Mais il est convaincu que ces impératifs existent et exigent l'universalisme, la communality, le désintérêt, et le «scepticisme organisé». Pour lui, le but institutionnel de la science est «l'accroissement des connaissances vérifiées», le caractère cumulatif des résultats. Cet aspect de sa pensée, venu de la philosophie des Lumières, est aujourd'hui le plus discutable. D'autre part, Merton analyse le lien entre système social et science comme un rapport dialectique qui demande d'interroger les valeurs de la communauté scientifique dans leur interaction avec les valeurs dominantes du système social, ce qui donne des résultats souvent imprévisibles. En outre, et c'est le trait le plus révélateur de l'esprit de Merton, il souligne dans son essai de 1957 - The Sociology of Science. Theory and Empirical Investigations - la présence simultanée de valeurs incompatibles dans l'institution scientifique, comme dans toute autre institution. Les scientifiques sont presque toujours ambivalents: ils doivent être humbles, ouverts à l'échange et à la confrontation continuelle avec les autres scientifiques, mais aussi originaux et être les premiers à faire connaître leurs découvertes. L'ambivalence de leurs sentiments et de leurs comportements ne peut jamais être surmontée; elle entraîne une oscillation constante entre des positions opposées. Cette imprévisibilité partielle de leurs conduites permet de comprendre les changements qui ont lieu dans la communauté scientifique, alors que la plus typique des critiques adressées au structuro-fonctionnalisme a été justement de ne pas être en mesure d'expliquer le changement. Son dernier livre, The Travels & Adventures of Serendipity: a Study in Historical Semantics and the Sociology of Science, publié au cours de la dernière année de sa vie, malgré six opérations chirurgicales pendant cette même période, confirme l'intérêt de Merton pour les aspects surprenants, imprévisibles, de la réalité sociale. Il analyse les démarches inattendues de l'acteur qui conduit sa recherche, mais aussi les conditions historiques qui favorisent ou affaiblissent l'utilisation d'une découverte occasionnelle. Pour Merton, la notion de serendipity désigne l'apparition d'une donnée inattendue et «anomale» au cours d'une recherche empirique, une donnée qui peut la réorienter ou conduire à une nouvelle interprétation. La serendipity se manifeste d'abord de manière imprévue: sur le chemin du scientifique une donnée se présente, qui ne cadre pas avec son hypothèse. L'imprévu peut se présenter comme une conséquence des conditions sociales de la recherche, mais dépend surtout de la réceptivité et de la sagacité du chercheur. L'«anomalie» est une autre caractéristique de la serendipity, les données sont «anomales», elles contredisent les certitudes établies, ce qui stimule la curiosité, ouvre les portes de la créativité et oblige à formuler de nouvelles hypothèses. La rencontre de la serendipity doit enfin être «pertinente», c'est-à-dire avoir une position stratégique par rapport à la formulation d'une autre théorie ou de l'extension de la théorie initiale. Comme on peut le constater, même en suivant Merton sur le terrain où il a le mieux démontré sa fidélité au paradigme structuro-fonctionnaliste, on rencontre chez lui des 262

HERMÈS 37, 2003


Hommages

concepts qui ouvrent la voie à une sociologie beaucoup plus dynamique et sensible à une réalité qui ne se laisse encadrer dans aucun système, donc à une vision du monde très éloignée du structuro-fonctionnalisme classique. Le fait est que Merton, tout en étant le dernier des «classiques», est en même temps le moins «classique», cela pour plusieurs raisons: par sa méfiance à l'égard des grands systèmes théoriques, parce qu'il a inventé les middle-range theories, parce qu'il a défendu et réalisé l'intégration de la théorie et du travail de terrain, mais surtout parce qu'il a concentré son attention sur les aspects conflictuels, paradoxaux, ambivalents des normes et des structures. En résumé, on peut dire que Merton a constamment insisté sur l'imprévisibilité des effets des structures sociales. Merton est un grand théoricien qui n'a jamais voulu lier son nom à une théorie de la société, à des réponses définitives et exhaustives aux grandes questions de la théorie sociologique, mais qui a plutôt voulu se consacrer à la construction, jamais achevée, toujours révisée et approfondie, de concepts, instruments de connaissance à utiliser sur le terrain. Il donne dans sa pensée une place centrale à la conscience de la pluralité des formes que la rationalité peut prendre dans les conduites de l'acteur, il souligne «l'ironie» profonde et l'ambivalence qui se manifestent dans les normes et dans les modèles de comportements sociaux. Je dirai que la signature de Merton se reconnaît à une ironie qu'il découvre au cœur de la plupart des rapports sociaux. Le «thème ironique» est probablement le plus central dans l'œuvre de Merton, la principale raison de son actualité aujourd'hui, sa façon d'affronter une réalité sociale devenant de plus en plus complexe et difficile à déchiffrer dans ses aspects contradictoires. Depuis ses premiers pas et pendant toutes les étapes de sa carrière, Merton a élaboré un ensemble de concepts - les conséquences inattendues de l'action sociale, la prophétie autoréalisatrice, les fonctions latentes et manifestes, l'effet Matthew, l'ambivalence, la serendipity - qui obligent le chercheur à découvrir, au-delà des apparences, une réalité «autre», qui contredit l'interprétation se présentant comme la plus vraisemblable. L'image de l'acteur social dessinée par Merton est placée dans un contexte de doutes et de conflits continuels. Il ne vit pourtant pas les incertitudes avec anxiété et angoisse. L'imprévisibilité, le risque, les contradictions sont pour lui des expériences quotidiennes, qui sont même appréciées pour les qualités dynamiques, pour l'intérêt fort et riche qu'elles donnent à la vie. Le monde des interactions humaines, regardé avec les yeux de Merton, apparaît comme un fascinant kaléidoscope dont les formes et les combinaisons souvent surprenantes sollicitent la curiosité, jusqu'au moment où on arrive à cerner la clé de lecture, le modèle explicatif. Mon hypothèse est que la sociologie mertonienne «du soupçon», son «thème ironique» 2 ne sont pas seulement une de ses inspirations parmi d'autres, mais la ligne de recherche qui le représente le mieux. Il s'agit d'une inspiration qui apparaît depuis ses tout premiers articles et qui trouve son accomplissement dans le concept d'ambivalence3. CeluiHERMÈS 37, 2003

263


Hommages

ci exprime en effet de différentes façons une vision ambivalente de la vie sociale et des structures normatives qui la règlent. Toute conception de la réalité sociale, d'ailleurs, qui affirme l'existence de niveaux conscients et inconscients, manifestes et latents, structurels et idéologiques ne peut avoir son centre que dans le concept d'ambivalence. L'ambivalence existe quand, dans le monde de l'acteur, s'opposent deux forces de signe contraire et d'intensité égale, sans que l'une ne puisse jamais prévaloir complètement sur l'autre. À la différence des contradictions hégéliennes, l'ambivalence ne peut pas être surmontée par une synthèse. Éliminée à un certain niveau, elle réapparaît à un autre, engendrant ainsi des oscillations incessantes dans la conduite des acteurs. L'idée d'ambivalence a une longue histoire, au cours de laquelle elle a notamment été utilisée au niveau psychologique; mais le but que Merton se donne est d'étudier sa présence dans les relations sociales. L'ambivalence qui intéresse Merton ne se réfère pas à la personnalité de l'acteur, mais aux structures sociales. Il n'est pas possible d'approfondir ici les détails et les implications de ce concept, mais je voudrais souligner combien les réflexions qui l'accompagnent sont l'instrument le plus puissant qu'il nous ait laissé pour la compréhension des sociétés contemporaines, où l'ambivalence se présente dans presque tous les domaines vitaux de la vie collective. Jusqu'ici, j'ai évoqué l'intellectuel et la pertinence que sa pensée garde encore aujourd'hui; mais il est important aussi de dire quelques mots sur l'homme. Il a été un enseignant inoubliable, un ami toujours sensible, plein d'affection et d'attentions, qui suivait avec intérêt la vie de ceux qu'il aimait et auxquels il savait comment donner son appui. Pour beaucoup, il a été ce qu'il appelait et que nous appelions aussi «un maître à distance». Il a vécu très longtemps et pourtant nous avons reçu la nouvelle de sa mort comme une douloureuse surprise et une injustice. Simonetta Tabboni Professeur émérite à l'université de Paris VII-Denis Diderot

NOTES 1.

Sur leur mode de coopération: P. F. LAZARSFELD, «Working with Merton», in The Idea of Social Structure: Papers in Honor of Robert K. Merton, Coser L. éd., 1975, et R. K. MERTON, «Working with Paul», in LAUTMAN J. et LÉCUYER Β. (dir. ), Paul Lazarsfeld, 1901-1976: la sociologie de Vienne à New-York, Paris, L'Harmattan, 1998.

2.

Cela a été remarqué aussi par Louis Scheider à l'occasion du Festschrift consacré à Merton en 1975.

3.

R. K. MERTON and Elinor BARBER, Sociological Ambivalence and Other Essays, New York, The Free Press, 1976.

264

HERMÈS 37, 2003


Hommages

RÉFÉRENCE

BIBLIOGRAPHIQUE

Carlo MONGARDINI, Simonetta TABBONI, Robert K. Merton & Contemporary Sociology, New Brunswick et Londres, Transaction Publisher, 1998.

HERMES 37, 2003

265


JEAN DRUCKER (1941-2003) UNE VIE AU SERVICE DE L'AUDIOVISUEL

Jean Drucker nous a quittés le 18 avril 2003. Président du Conseil de surveillance de Métropole Télévision (M6), il a accompli pratiquement toute sa carrière dans l'audiovisuel. Licencié ès Lettres et diplômé de l'Institut d'études politiques de Paris, il est entré à l'ΕΝΑ en 1 9 6 6 ; affecté en 1968 au ministère des Affaires culturelles, il n'y est resté que peu de temps, avant de rejoindre en 1970 le cabinet du directeur général de l'ORTF, Jean-Jacques de Bresson, et d'être nommé adjoint au directeur général de la 1e chaîne. Après l'éclatement de l'ORTF en 1974, on le retrouve dans l'une des entités issues de cette réforme, la Société Française de Production, aux côtés de Jean-Charles Édeline, puis d'Antoine de ClermontTonnerre. Il y demeure en qualité de directeur général jusqu'au début de 1980, date à laquelle je l'appelle à mes côtés comme vice-président d'Édiradio (RTL) et adjoint à l'administrateur délégué de la Compagnie luxembourgeoise de télédiffusion (CLT). En 1985-1986, il est président d'Antenne 2 avant de prendre en 1987 la présidence de Métropole Télévision, à qui la Commission nationale de la communication et des libertés (CNCL) confiait l'exploitation de la sixième chaîne, dont il sera le président-directeur général jusqu'en 2001, date à laquelle il cède la direction exécutive à celui qui, dès l'origine, a été à ses côtés, Nicolas de Tavernost, nommé alors président du directoire. Au cours de ces quelque trente années, le paysage audiovisuel français s'est profondément transformé. Quand Jean Drucker y fait ses débuts, le monopole du service public de la radio-télévision règne, à la seule exception des radios dites « périphériques » (RTL, Europe 1, Radio Monte-Carlo et Sud Radio) et de la présence en Lorraine de TéléLuxembourg. Longtemps géré comme une administration centrale de l'Etat, avec à sa tête un directeur général nommé discrétionnairement par le gouvernement, lequel exerce ouvertement sur les ondes une tutelle confiée à un ministre de l'Information, le service public de la radio-télévision est depuis 1964 un établissement public, l'ORTF, qui reste sous le contrôle étroit de l'Etat. Son financement est assuré pour l'essentiel par la redevance, la publicité n'ayant fait son apparition, d'ailleurs timide et controversée, qu'à partir de 1968. En dépit de quelques velléités, toute formule de télévision privée est résolument écartée, alors que l'expérience est tentée en Grande-Bretagne. Quand, en 1970, Jean Drucker entre HERMÈS 37, 2003

267


Hommages

à l'ORTF, la télévision en couleurs n'est pas encore généralisée et la troisième chaîne est seulement sur le point de voir le jour. L'essentiel des programmes, que ce soit pour l'information au sens large, pour le divertissement ou pour la fiction, est réalisé en régie directe par les chaînes. La télévision du matin n'existe p a s ; les programmes ne commencent qu'à midi ou en fin d'après-midi et s'arrêtent à minuit. La télédistribution est à peine envisagée, et ne le sera que très lentement dans les années 1970, pour des expériences locales étroitement encadrées, tandis que la diffusion hertzienne souffre encore de nombreuses zones d'ombre. On ne commencera à parler de satellites de télédiffusion directe qu'à la fin des années 1970, et à titre purement expérimental. En radio, pas plus de quatre programmes à diffusion nationale au sein du service public, qui ne créera quelques radios locales qu'en 1979-1980; l'Etat, à travers la Sofirad, exerce un contrôle sur le choix des dirigeants d'Europe 1, de RMC et de Sud Radio et, dans une certaine mesure, sur les programmes; la présence d'Havas au capital de la CLT et dans la régie de ses différents programmes permet au gouvernement français d'avoir un œil sur RTL. Ce bref rappel montre le chemin parcouru depuis cet âge quasiment préhistorique de l'audiovisuel. La mainmise de l'Etat avait été secouée par les événements de mai 1968 et le gouvernement de Jacques Chaban-Delmas, formé après l'élection de Georges Pompidou à la présidence de la République en 1969, avait esquissé un mouvement de libéralisation, en supprimant le ministère de l'Information et en appelant une forte personnalité, Pierre Desgraupes, à la direction de l'information de la 1e chaîne. En 1972, le même gouvernement donnait à l'ORTF un vrai statut d'établissement public avec à sa tête un président-directeur général, et amorçait une certaine décentralisation de la gestion des programmes. L'une des premières décisions de Valéry Giscard d'Estaing après son élection à la Présidence de la République fut, dès l'été 1974, de faire éclater l'ORTF en quatre sociétés nationales de programme (TF1, Antenne 2, FR3, Radio-France), auxquelles s'ajoutaient une société pour les moyens lourds de production (la SFP) et deux établissements publics, l'un chargé de la diffusion (TDF), l'autre des archives, de la recherche et de la formation, l'Institut national de l'audiovisuel (INA). Si cette restructuration a incontestablement permis une gestion plus autonome des sociétés de programme et une recherche par chacune d'elles de sa propre personnalité, voire d'une certaine liberté de ton (sensible notamment sur l'Antenne 2 de Marcel Jullian), le système public n'en restait pas moins très verrouillé. À quelques exceptions près, comme celle de Marcel Jullian que l'on vient de mentionner ou, en 1972, d'Arthur Conte, les hauts postes de responsabilité de ce service public furent toujours confiés à des hauts fonctionnaires, préfets, ambassadeurs, inspecteurs des finances, conseillers d'État, voire magistrats, comme Gabriel Delaunay, Robert Bordaz, Christian Chavanon, Marceau Long, tous grands commis qui n'étaient pas des spécialistes du métier mais qui surent s'entourer de grands professionnels issus du sérail de la radio et de la télévision, ainsi que de jeunes généralistes, énarques ou non, comme Claude Contamine, 268

HERMÈS 37, 2003


Hommages

Xavier Larère, Gabriel de Broglie, Bertrand Labrusse qui devaient, à des titres divers, faire carrière dans l'audiovisuel. Jean Drucker est, à plus d'un titre, le prototype de ce nouveau profil de responsables appelés à vivre et à gérer la mutation profonde de l'audiovisuel qui s'est opérée entre le début des années 1980 et la fin du siècle. On ne saurait attribuer à la seule alternance politique de 1981 et aux initiatives de la gauche de gouvernement le mérite de cette mutation; car les socialistes, à commencer par François Mitterrand, ont, sur bien des plans, improvisé et cédé à la tentation du contrôle politique, de l'arbitraire et du favoritisme. Il faut cependant leur reconnaître le mérite historique d'avoir, dès 1981, cassé le monopole du service public en créant des radios locales privées et rompu, au moins en principe, le cordon ombilical entre le pouvoir politique et l'audiovisuel par la création d'une Haute Autorité de la Communication Audiovisuelle. Par ces actes fondateurs, le système s'est en quelque sorte déverrouillé. Tout le reste est venu ensuite, sous la pression des évolutions technologiques, de la loi du marché, de l'ouverture des frontières, des attentes d'un public qui a placé la télévision, et aussi la radio, au premier rang de ses pratiques de divertissement et même de culture, le tout accompagné de beaucoup d'erreurs stratégiques, de lois sans cesse modifiées, mais avec des progrès irréversibles dans le sens de la liberté d'information et de programmation, ainsi que d'une extension considérable de l'offre audiovisuelle. De cette mutation, Jean Drucker a été l'un des acteurs majeurs, en même temps que l'un des observateurs et analystes les plus pénétrants. De l'ORTF à M6 en passant par la SFP, RTL et Antenne 2, il aura, dans des postes de responsabilité, tout connu des rapports avec le pouvoir politique, les instances de régulation, les actionnaires privés, les concurrents, les personnels et les autres médias. Le succès de M6, qui tranche avec la déconfiture de la 5 e chaîne et les aléas répétés de Canal +, est en large part son œuvre; il faut se souvenir qu'au départ, rares étaient ceux qui osaient croire aux chances de la petite « chaîne de trop ». Il est donc intéressant d'analyser les raisons de cette réussite, alors que tant d'autres carrières audiovisuelles, d'abord prometteuses, furent brisées par des crises, des disgrâces, ou par l'échec. Un milieu familial fort, une éducation rigoureuse, voire rigide, une personnalité sensible, ouverte, raffinée, un cursus universitaire classique: voilà les données de départ. Passionné de littérature et plus encore de cinéma, Jean Drucker était de plain-pied dans l'univers de la fiction et des images animées. Féru d'histoire et de politique, il dévorait la presse depuis sa prime jeunesse. Entré dès 1964 à l'ORTF comme journaliste, son frère cadet Michel, avec qui il eut toujours une relation très forte et qui eut la brillante carrière que l'on sait, l'initia très tôt aux détours du sérail télévisuel. Sa formation d'énarque lui donna le sens de l'intérêt général et l'expérience des pratiques administratives. Bien que bref, son court passage au ministère des Affaires culturelles d'André Malraux le familiarisa avec la problématique de la création et les principes de la politique culturelle. Ainsi quand, à moins de 30 ans, Jean Drucker entre pour n'en plus sortir dans les métiers de l'audiovisuel, HERMÈS 37, 2003

269


Hommages

il est un généraliste cultivé mais suffisamment aguerri pour ne pas succomber aux sortilèges de ce monde très particulier qui a fait tourner bien des têtes. C'est comme porteur du projet de M6 que Jean Drucker a donné toute sa mesure. Il s'identifie au succès de cette aventure d'abord périlleuse. Tout l'y préparait: son expérience du service public, sa connaissance approfondie du monde des journalistes, des animateurs, des producteurs, ses cinq années à RTL et à la CLT, où il avait appris à la fois la logique de l'entreprise privée, la science des relations avec des actionnaires et le contexte européen du développement de l'audiovisuel. Négociateur né, diplomate de tempérament, expert en convivialité, il n'était pas de ces patrons qui s'imposent par le cynisme de leurs vues et la brutalité de leurs façons et ne délèguent leurs prérogatives à des collaborateurs qu'à regret et le moins possible. Séduisant et persuasif, ennemi du double langage, d'une probité sourcilleuse, aussi retenu que convaincu dans son expression, toujours précise et sobre bien que volontiers prolixe, il était un chef d'entreprise respecté et, pour ses actionnaires, un mandataire fiable et loyal. Avec la remarquable équipe qu'il a constituée autour de Nicolas de Tavernost, dont la personnalité était à bien des égards complémentaire de la sienne, il a su, dès les débuts de la Six, définir un profil de programme et une stratégie de développement à la fois réalistes et ambitieux, en évitant, par une approche de « contreprogrammation », le piège d'une concurrence frontale par rapport aux grandes chaînes, tout en ciblant progressivement son offre télévisuelle en direction des jeunes urbains et en donnant à M6 un habillage, un esprit et un contenu marqués par une modernité de bon aloi. Dans son for intérieur, il préférait sans doute Capital à Loftstory et les engagements de M6 dans la production de films à la diffusion de séries américaines; mais il n'était pas insensible à toute forme de programme répondant à des attentes nouvelles du public, discernées ou pressenties par les équipes responsables, et il savait que dans une entreprise soumise à la rude loi du profit, l'audace et l'ambition sont la récompense d'une gestion rentable. Ce profil de gestionnaire humaniste et créatif, aussi habile à affronter une assemblée d'analystes financiers ou un amphithéâtre de Sciences Po qu'à comparaître devant une commission parlementaire ou devant le Conseil supérieur de l'audiovisuel (CSA), il n'est pas évident qu'il soit reproductible au temps des grands groupes de communication où les paramètres financiers l'emportent sur tout le reste. On a souvent évoqué, au sujet de l'audiovisuel, l'image un peu simpliste du couple géomètre-saltimbanque. Jean Drucker n'était à proprement parler ni l'un, ni l'autre, mais il était assez rationnel et Imaginatif pour entraîner des équipes remuantes et rassurer des actionnaires exigeants. Avec sa disparition prématurée, unanimement saluée par ses pairs et par le monde de la communication dans son ensemble, c'est peut-être une certaine culture de l'audiovisuel qui s'en est allée. Jacques Rigaud Ancien administrateur délégué de la Compagnie luxembourgeoise de télédiffusion et président de RTL 270

HERMÈS 37, 2003


LECTURES

MédiaMorphoses, n° 7, avril 2003.

«Télévision et radio: états de la parole», Bry-sur-Marne, INA,

Il n'est rien d'étonnant à ce que Guillaume Soulez ait dirigé pour la revue MédiaMorphoses le dossier sur la parole dans les médias ! Guillaume a soutenu à l'Université de Metz sa thèse sur «La médiation rhétorique à la télévision» (1998, N. Nel directeur). Au sein de cette université et du centre de recherche du département de communication (Crem), comme au sein de l'Inathèque de France (séminaire «Téléparoles»), il a dirigé sur la même question, deux années durant, les réflexions d'équipes dont les travaux sont en cours de publication. À maintes reprises, il est intervenu sur le thème dans des colloques, en France et à l'étranger. Bref, avec obstination et compétence, il creuse le sillon de la parole dans les médias, en confrontant sa perspective première, qui emprunte à la rhétorique, à des chercheurs de tous horizons, de façon à éprouver la pertinence et les limites de ses choix. Le dossier qu'il nous propose est riche de 13 contributions. Même s'il déclare présenter des «états de la parole», il ne faut pas y voir un état présent des recherches engagées depuis plus de 20 ans, sur l'un des seuls terrains de la recherche audiovisuelle, et surtout télévisuelle, qui ait pu mobiliser toutes les perspectives méthodologiques: celui de la conversation. En fait, il est une sorte de tribune offerte à quelques chercheurs universitaires (plutôt jeunes chercheurs) et à quelques professionnels (de Pierre Schaeffer à Claude Sérillon) pour rappeler ici, et là initier, un certain nombre de perspectives fructueuses concernant radio et télévision. Trois orientations majeures y dominent, qu'il faut estampiller globalement comme esthétiques, sémiotiques et socio-pragmatiques. Elles essaient de caractériser la parole fixée ou enregistrée en archive, à la Phonothèque nationale (M. -E Calas), pour la différencier de la parole médiatisée, plus construite et ramassée, dans le montage, en ses moments forts. Il s'agit ensuite et surtout d'analyser dans tous ses paramètres cette parole médiatisée. Il y a sa matérialité de parole humaine, saisissable selon la phonétique (D. Duez), qui se veut science des styles de parole en articulant situations de parole, rôles et styles (styles du même locuteur et style identique propre à différents locuteurs). Il y a sa spécificité de parole ancrée dans différents médias (théâtre et cinéma, épisodiquement; radio et télévision, frontalement); ses évolutions se font selon les époques historiques et les régimes d'expression (nommés selon les cas styles, stéréotypes, rôles de parole). HERMÈS 37, 2003

271


Lectures

L'approche esthétique (J. Ungaro, G. Delavaud, G. Soulez via P. Schaeffer) s'occupe de l'enjeu engagé dans la matérialité de la parole médiatisée. On nous rappelle l'importance de Welles, A. Bazin, E. Souriau, P. Schaeffer, J. Thévenot, J. -C. Bringuier, H. Knapp, M. Moussy, dans la théorisation de ce champ de l'expression sonore, dès les années 195060. On y (re)découvre les questions de la parole prise dans les grandes problématiques originelles de l'art/instrument, la diffusion/représentation, la pureté/impureté, le direct, l'insertion de qualités particulières dans les scènes télévisuelles. On y souligne (G. Delavaud) les différentes voies suivies en ces années à la télévision: parole ordinaire; parole théâtrale parlée; parole dramatisée. On positionne la parole comme entre-deux entre image et son, art de comédien et pratique de non comédien (P. Schaeffer). On localise dans les années 80 (J. Bourdon) le passage d'un régime dominant de parole d'autorité à un double ou triple régime, régime confessionnel de familiarité (télévision de l'intimité), régime «héroïque - comique» de nouvelle familiarité publique (téléréalité), régime vivace et bruyant de «vente de l'information» (C. Sérillon, pour ce dernier aspect). L'approche sémiotique (G. Lochard, J. -F. Diana) permet de fonder en complexité et précision certaines propositions de l'approche esthétique: rôle de la parole dans le travail de construction des scènes télévisuelles (G. Lochard et J. -C. Soulages), étude de cas particulier, celui de la parole de l'écrivain dans les émissions littéraires de la télévision (J. -F. Diana). Continuant quelques prédécesseurs, la perspective sémio-discursive des deux premiers s'occupe avec finesse des stratégies de visualisation de la parole, avec l'espoir d'appréhender les configurations intersémiotiques à l'œuvre, en allant des rôles d'orateurs aux figures visuelles, types monstratifs et effets possibles. Riche, elle néglige encore certaines dimensions importantes comme la mimo-gestualité. Quant à l'approche de J. -F. Diana, elle essaie de saisir en quoi la parole de l'écrivain, homme de l'écrit par excellence, peut être détournée de ses objectifs, et par le médiateur (animateur), et par le dispositif stratégique de l'émission. La dernière catégorie du dossier, à orientation plus pragmatique ou sociologique, entend évoquer ce que l'on pourrait nommer la force ou l'impact de la parole agissante, en situation de médiatisation: force du rôle de présentateur (C. Sérillon); force des silences de l'homme politique (D. Duez); force des dispositifs d'émissions (I. Vovou); force des plateaux télévisés (S. Rouquette). On touche ici aux questions de l'espace public, et on ouvre la parole médiatique / médiatisée sur l'espace social, ce qui nécessite des méthodologies rigoureuses et ne va pas toujours sans extrapolation hâtive. Jeu de poupéesgigognes, qui pose la grande question: jusqu'où aller trop loin, dans ce passage de la parole - émission-média aux dimensions sociales d'hier et d'aujourd'hui ? On suivra volontiers Manuel Antunès da Cunha, qui se borne à l'espace radiophonique immigré (portugais), au sein de l'espace public français de 1966 à 1992: une évolution en quatre étapes, de la parole de lien social (1966-1973) à la parole polémique (1974-1975), la 272

HERMÈS 37, 2003


Lectures

parole-héritage (1976-1982) et la parole confisquée (1983-1992). Quatre régimes d'expression saisis surtout dans leurs contenus, et variant dans le temps selon les contextes socio-politiques (français et portugais) d'époque. On suivra de même Ioanna Vovou, qui nous entretient de la circulation internationale des programmes, formats, types télévisuels d'émissions de débats entre la France et la Grèce, et des procès d'assimilation aisée d'un pays à l'autre. On sera un peu plus réservé devant certains aspects du travail de Sébastien Rouquette. Certes, il a tout à fait raison de nous pousser à étudier les modalités de composition des plateaux télévisés, car elles jouent un rôle dans la capacité à parler à la télévision. Mais il va un peu vite en besogne, lorsqu'il affirme que tout se jouerait sur ce plan, donc en amont de l'émission et hors des plateaux. Et encore trop vite lorsqu'il tente un parallèle entre ce qu'il nomme «la fracture médiatique» (la tendance constatée à privilégier les gens aptes à parler télégéniquement) et la « fracture politique » (notamment celle des élections présidentielles de 2002): quel rapport y aurait-il entre les exclus de certains plateaux et les exclus de la société française de 2002 ? Comparaison est moins que jamais raison, sur ce point ! Globalement, les contributions de ce dossier maintiennent donc un bon degré de congruence avec le thème fédérateur, même si l'on glisse parfois de la focalisation sur la parole (excellente dans l'approche phonétique et sémio-discursive) à l'extension de l'approche à l'émission entière, aux différents médias, à l'ensemble de l'espace public médiatique, puis à la société entière et au-delà... Le degré de nouveauté des informations est lui aussi tout à fait satisfaisant. Si, épisodiquement, on se cantonne à la présentation synthétique d'une démarche à présent bien connue (G. Lochard), le plus souvent, on s'attache à des démarches nouvelles, sur l'objet observé comme sur les méthodologies pratiquées. Finalement, la conceptualisation qui nous est proposée de la parole en situation médiatique offre de bonnes pistes de réflexion. On doit saluer le recours à l'incontournable perspective historique, qui est sans doute aucun l'une des grandes conquêtes de l'analyse télévisuelle d'aujourd'hui. De même, la place donnée aux approches sémiotiques est juste, car de leur finesse dépendent souvent les pré-requis d'analyses plus vastes, esthétiques et sociologiques. Mais on regrettera quelques lacunes. Curieusement, le dossier évite la définition du terme clé de parole, d'où les habituels glissements à la langue ou au discours. On pressent que pour se pencher totalement sur les phénomènes de parole, il faut en passer notamment par la phonétique. Et en passer par l'analyse de la sonorité, pour différencier, comme il est suggéré, la parole de la bande son restante et de la bande image: or, Michel Chion ou Laurent Jullier sont à peine présents ? Et en passer par l'analyse pragmatique de la parole opérante, dans le «lacis audiovisuel»: comment fonder les hiérarchies entre paroles (celle du présentateur-animateur, celle du commentateur, celle du discutant de plateau) ? Comment rendre compte des jeux et réglages subtils entre voix over (reportage, HERMÈS 37, 2003

273


Lectures

documentaire), voix off, voix in, sans en rester à la seule qualité «acousmatique» repérée par Michel Chion (on notera que le n° 6 de la même revue, dans l'entretien de G. Soulez avec D. Bougnoux, D. Dayan et S. Tisseron, a commencé à examiner ces questions de près, notamment avec les contributions du psychanalyste S. Tisseron) ? Comment montrer que les régimes de paroles médiatisées (ou de discours médiatiques ?) à travers le temps auraient changé la possibilité de parler (gain de démocratie), de pratiquer les grandes opérations cognitives (expliquer, argumenter, démontrer), ou affectives et identitaires (témoigner, avouer, etc. ) ? Le dossier dirigé par Guillaume Soulez ne pouvait à lui seul s'occuper du tout. Mais il ouvre des pistes qu'il conviendrait de suivre.

Noël Nel

Angelina PERALVA et Éric MACÉ, Médias et violences urbaines: débats politiques et construction journalistique, Paris, La Documentation française, «La Sécurité aujourd'hui », 2002. Cet ouvrage, fruit d'un long travail d'enquêtes et d'entretiens, intervient à point nommé pour nous aider à mieux comprendre l'emballement des médias pour la question de l'insécurité lors de la campagne présidentielle de l'an passé et, avant cela, lors de la campagne des municipales de 2001. Étudiant à la fois des journaux télévisés, des émissions et la presse écrite, les deux auteurs cherchent à définir les cadrages interprétatifs fournis par les médias sur les questions de violence et d'insécurité. Depuis une vingtaine d'années, ils observent l'existence de trois grilles interprétatives sur ces sujets, tant dans les médias que dans les discours politiques. L'insécurité peut être considérée comme un symptôme, celui d'une crise de l'intégration sociale. L'insécurité-menace est associée à l'existence de groupes à risques, qu'il faut savoir réduire ou contrôler. Enfin, une analyse en terme de coproduction se fait jour, associant violence visible et invisible, réelle et symbolique, et mettant en avant une logique de la coproduction des violences sociales. À partir de cette typologie, ce livre interroge les visions que les journalistes se font de leur travail et de leur responsabilité lors du traitement de questions aussi délicates et potentiellement explosives. Le principal clivage autochtone établit une ligne de fracture entre réalisme et complexité. Les «réalistes» s'opposent aux «angéliques», alors que les tenants de la complexité s'opposent aux « simplistes ». En fonction de la position des divers journalistes et de la ligne éditoriale de leur support, les auteurs relèvent donc que certains sont attentifs à relayer des «faits bruts», ce qui les amène souvent à relayer le discours des sources 274

HERMÈS 37, 2003


Lectures

officielles, d'autres s'engagent dans une mission de dévoilement, pour dénoncer en particulier l'angélisme qui aurait frappé une partie de la gauche, d'autres encore privilégient une approche compréhensive, visant à témoigner des conditions de vie réelles des personnes concernées et de l'imbrication des différents éléments explicatifs. Cet ouvrage est vraiment indispensable pour réfléchir posément aux enjeux médiatiques de cette lancinante question sociale qu'est devenue la délinquance. Il est construit sur un aller-retour intelligent et stimulant entre les représentations politiques dominantes sur le sujet, les postures des journalistes, le système de contraintes dans lequel ils travaillent et les cadres situationnels dans lesquels ils opèrent (routine ou crise). Toute cette démarche débouche sur une vision tout en nuance et en prudence du rôle que les journalistes peuvent jouer dans l'espace public, dans les « conflits de définition » concernant la réalité du monde perçu. Arnaud Mercier

Éric MAIGRET, Sociologie de la communication Colin, coll. «U. Sociologie», 2003.

et des médias,

Paris, Armand

À la différence d'autres manuels qui proposent une mise à plat des théories de la communication et de leur apparition successive dans l'histoire des sciences sociales, l'ouvrage d'Eric Maigret rend compte d'un parcours de recherche personnel, d'une démarche «engagée» dans le sens où il souhaite «défendre l'existence d'une sociologie de la communication face aux réductionnismes technologiques et face aux discours postmodernistes» (p. 9). L'évocation des différentes approches scientifiques de l'objet communicationnel repose ainsi sur une série d'emboîtements (approches et limites de telle ou telle théorie, croisements et ruptures), à partir d'une perspective qui nourrit le plan de l'ouvrage: la communication doit être appréhendée à partir de trois niveaux de pertinence, qui définissent les trois parties. Le niveau naturel ou fonctionnel concerne les implications de l'homme dans l'univers des objets; le niveau social ou culturel renvoie aux relations interpersonnelles; le niveau de la créativité aux ordres sociopolitiques, à la représentation et la régulation du nombre. Instituant un «ordre croissant d'importance» dans ce triple phénomène naturel, culturel et créatif, l'auteur articule son analyse des théories de la communication, d'une part autour de la communication de masse comme «la grande affaire du siècle», d'autre part sur un retour aux «pères fondateurs» de la sociologie (p. 13). Un «prologue» en deux HERMÈS 37, 2003

275


Lectures

chapitres situe l'enjeu méthodologique: pour sortir des réflexions triviales sur les dénonciations ou l'apologie des médias, il faut éclairer les motifs d'une trop longue incompatibilité entre école critique européenne et courant pragmatique nord-américain. La première partie s'intitule «Dénaturaliser la communication». Elle s'attaque au «problème des effets... et comment s'en débarrasser». Passant en revue les apports d'Adorno jusqu'à ceux de Mac Luhan, via Lazarsfeld, la cybernétique et Palo Alto, Eric Maigret s'emploie à prouver que «les médias sont des réservoirs de formes d'action et non des stimulateurs d'action» (p. 58). La seconde partie, «Culturaliser la communication», s'intéresse au «jeu entre production et réception» révélé à la fois par l'approche des sémiologues, celle des sociologues et celle des culturalistes. La question du sens est ici inscrite dans le quotidien du langage, des interactions et des pratiques professionnelles ou privées: Barthes et Eco, Bourdieu et de Certeau, Stuart Hall et Schlesinger, Edgar Morin et Howard Becker (entre autres) sont sollicités comme autant d'inventeurs des multiples figures du «public». La troisième partie vise à «replacer les médias dans le grand bain du social, (à) boucler la culture, non pas fonctionnellement et de façon rassurante, à la (manière) de la cybernétique, mais démocratiquement, dans le conflit des interprétations ». Sous un titre tout aussi programmatique que les deux précédents, «Pluraliser la communication », elle appréhende les théories de l'opinion publique et de l'espace public au regard d'une «nouvelle sociologie des médias», que l'auteur entend fonder sur les trois notions-phares de démocratie, créativité et réflexivité. Alternant le recours aux grands textes (de Kant à Habermas), aux propositions interprétatives (sur le concept d'agenda ou la «spirale du silence», par exemple) et aux questions convenues («la communication faitelle l'élection?», ou «la télé-réalité est-elle dégradation ou enrichissement?»), l'auteur clôt sa démarche pédagogique («l'étude des principales théories de la communication, leur critique et leur mise en relation» p. 227) par un bilan ouvert où il s'agit de «passer des médias aux médiations» (p. 239). Ce faisant, Eric Maigret apporte sa pierre à «l'entreprise cumulative» que représente la sociologie de la communication. L'affirmation d'un vrai «point de vue» dans ce qui aurait pu n'être qu'une énième compilation de références rend la lecture de l'ouvrage particulièrement roborative. La richesse des sources (dont témoigne la présence de bibliographies en fin de chaque chapitre) a cependant pour conséquence un survol trop rapide de la nature même des travaux des auteurs sollicités. Par ailleurs on peut regretter, en ce qui concerne l'économie politique des médias d'une part, l'ultime chapitre sur Internet d'autre part, que l'auteur ait sacrifié à une volonté d'exhaustivité formelle sans parvenir à la maîtrise que méritent ces sujets et dont témoignent nombre d'autres chapitres. Le statut des «encadrés» suscite parfois le même embarras (lorsqu'ils introduisent aux sciences cognitives, à la médiologie, aux relations entre télévision et culture, etc., et plus encore lorsqu'ils s'insèrent après la conclusion d'un chapitre). Mais ils sont les bienvenus pour permettre quelques mises au point fort utiles (par 276

HERMÈS 37, 2003


Lectures

exemple sur les apports de Peirce ou les méthodes d'analyse des contenus). Les figures disséminées au fil des chapitres, trop souvent conçues sur un modèle unique, n'apportent en revanche pas grand-chose à la démonstration. Sur le plan éditorial, on s'étonne que des coquilles subsistent au fil des pages (écorchant le nom des Mattelart, par exemple) et que la troisième partie soit sur-titrée avec le titre de la seconde. Malgré ces quelques réserves, l'ouvrage d'Eric Maigret démontre avec érudition et conviction que « communiquer consiste à convoquer des objets, des relations sociales et des ordres politiques» (p. 11). Sa lecture est du plus vif intérêt pour non seulement aborder, mais aussi dépasser les difficultés d'une réflexion sur la communication, et pour inciter, audelà de la thématique centrale des médias de masse, à l'ouverture de chantiers sur les nouveaux objets, nouvelles pratiques et nouvelles normativités de la communication contemporaine. Françoise Massit-Folléa

Fabrice D'ALMEIDA, Christian Grande Guerre à nos jours, Histoire », 2003.

Histoire des médias en France, de la Paris, Flammarion, coll. «Champs Université.

DELPORTE,

Cet ouvrage très dense et très complet est la synthèse que l'on attendait de l'émergence en France, à partir de la fin des années 1980, d'un véritable courant de recherche florissant d'histoire des médias. Profitant du défrichement opéré par quelques pionniers qui se firent historiens de la presse, de nombreux chercheurs se sont emparés, à cette époque, des divers supports médiatiques - et des technologies de communication aussi - afin d'en dresser l'historique, d'en dépeindre les évolutions, de les mettre en contexte, en parallèle avec les tendances lourdes de la société française et de ses institutions politiques. Ces travaux se sont structurés, ont atteint un niveau de cristallisation qui permet de dégager des synergies et de faire apparaître une communauté savante spécifique, dont les illustrations sont la création de la Société pour Γhistoire des médias (www. sphm. net) et la parution, à l'automne 2003, du premier numéro d'une nouvelle revue, sous la rédaction en chef de Patrick Éveno et d'Isabelle Veyrat-Masson. Le directeur de cette revue n'est autre que Christian Delporte. L'ouvrage qu'il nous propose avec Fabrice d'Almeida se veut donc un riche manuel, exposant l'état des connaissances acquises sur cette histoire des médias en France. La bibliographie fournie et présentée de façon thématique, l'index très complet en font un outil très utile pour quiconque cherche à entrer dans cette histoire par un bout particulier. HERMÈS 37, 2003

277


Lectures

L'ensemble de la période annoncée est couvert, alternant des éléments d'analyse chronologique mettant en évidence les changements intervenus dans le paysage médiatique, avec des analyses portant l'accent sur les problématiques dominantes de chaque période, dans une logique de sociologie des médias. Cette alliance parfaitement tenue fait déjà de ce livre un classique incontournable qui a vocation à devenir un ouvrage de base en la matière, notamment pour le public étudiant. Reste à souhaiter que dans cette perspective d'inscription du livre dans l'histoire, les auteurs sachent à terme proposer des rééditions remises à jour, intégrant les nouveaux travaux qui font désormais florès et prolongeant d'autant le bornage chronologique annoncé: jusqu'à nos jours... Arnaud Mercier

Geoffrey GEUENS, TOUS pouvoirs confondus. État, capital et médias à l'ère de la mondialisation, introduction de Jean BRICMONT, Anvers, Éditions Epo, 2003. Dans son excellente préface à l'ouvrage de Geoffrey Geuens, Jean Bricmont pose la question suivante: «Plus de 150 ans se sont écoulés depuis que les mécanismes de base de la domination de classe ont été mis à jour. Et les membres de la classe dominante sont toujours là, aussi peu nombreux qu'arrogants et sûrs de leur pouvoir. Leurs noms se trouvent dans ce livre. Comment font-ils?» Depuis plusieurs années, Geoffrey Geuens travaille à y répondre. Il est banal de dire que les membres des classes supérieures, singulièrement la grande bourgeoisie, sont plutôt avares d'informations sur eux-mêmes. Mais s'il est difficile de faire connaissance avec ces milieux huppés, il n'en est pas moins possible de réunir sur leur monde une foule d'informations, particulièrement éclairantes, à condition d'aller les chercher là où elles sont. Geuens s'est donné cette peine. Il a méthodiquement rassemblé et analysé la documentation relative à la composition de ces «lieux de pouvoir» que sont les conseils d'administration des grandes multinationales américaines et européennes, les personnels politiques des cabinets ministériels des différents gouvernements nationaux (de droite et de gauche), les équipes dirigeantes des grandes institutions, les commissions internationales, les clubs privés de l'élite, ou les rédactions des grands médias de presse, tous ces lieux où évoluent «les architectes du Nouvel Ordre Mondial». Travail ingrat mais maîtrisé et efficace, qui fait apparaître avec clarté non seulement la force des positions occupées par tous ces hommes et ces femmes situés « à l'intersection des milieux politiques, économiques et journalistiques», acteurs éminents mais somme toute interchangeables, mais encore et surtout la puissance colossale du système de leurs relations, 278

HERMÈS 37, 2003


Lectures

qui vont de la collaboration officielle et publique jusqu'aux rapports électifs et aux échanges privés. On soupçonne depuis longtemps, certes, que les nantis gouvernent le monde, soit directement, soit par élites intellectuelles et politiques interposées. Cet aspect des choses est généralement vu comme le résultat d'une démarche conjoncturelle et intentionnelle, voire «conspirationniste». Mais l'enquête de Geuens vise le structurel. Elle a le mérite de «mettre en évidence la cohérence interne et les articulations le plus souvent masquées de ce réseau d'intérêts croisés d'actionnaires, d'appareils et d'institutions diverses» qui constitue en permanence le champ du pouvoir. Elle montre en effet que la logique du système de domination capitaliste a besoin, pour s'accomplir, de se matérialiser dans des structures comme celles, par exemple, de la Commission Trilatérale ou du Forum Économique Mondial, explicitement hostiles à la démocratie jugée «obsolète», et soucieux de mener à bien et à fond la révolution néo-libérale. Mais plus encore peut-être que de structures objectives externes, cette logique a besoin de s'incarner dans des individus singuliers, des «sujets» plus ou moins profondément structurés par elle, dont le destin personnel ne peut se réaliser sans contribuer du même coup à la reproduction de leur univers social à travers leurs choix existentiels, depuis leurs investissements scolaires jusqu'à leurs plans de carrière et leurs stratégies matrimoniales. L'ouvrage de Geoffrey Geuens se termine par un substantiel index des noms et des sociétés qui permet de naviguer plus aisément dans la masse impressionnante des données recueillies. Il est permis toutefois de regretter qu'il ne soit pas complété, ou enrichi par un index thématique plus explicitement en rapport avec l'armature conceptuelle de l'étude. Alain Accardo

HERMES 37, 2003

279


RESUMES -

Régine CHANIAC, l'audience, un puissant

Abstracts

artefact

La mesure d'audience est au cœur de l'activité des médias dits de masse: elle sert de référence pour quantifier les auditoires et s'impose comme mode de consultation du public. Le présent numéro d'Hermès présente tout d'abord les systèmes de mesure d'audience des différents médias (presse, radio, télévision, câble et satellite), mettant en évidence que l'audience est le résultat d'un ensemble de contraintes et d'un consensus toujours fragile entre les partenaires concernés. La deuxième partie, plus particulièrement centrée sur la télévision généraliste, analyse les effets de la concurrence (et de la logique de maximisation de l'audience qui en découle) sur les programmes et les programmations. La partie suivante s'interroge sur la validité de l'audience comme moyen de connaissance des publics, et sur la possibilité de créer d'autres types de liens avec le téléspectateur. Enfin, la spécificité d'Internet par rapport aux médias traditionnels permet d'affirmer que la mesure d'audience n'y jouera sans doute jamais le rôle central, un nouveau mode de relation s'instaurant avec l'usager. Mots-clés: médias de masse, mesure d'audience, programmation, programmes, public, usager.

Audience, a powerful artefact Audience researches are at the centre of mass medias activity: they serve as a reference to quantify viewers and are considered to he THE way to survey audiences. This issue of Hermes first presents different audience ratings systems used by media (press, radio, television, multichannel television), emphasizing the fact that audience is the result of many constraints and of an always weak consensus between partners concerned. The second part, more particularly focused on traditional channels, analyses competition effects (and the logic of audiences maximization resulting) on schedules and programming. The following part questions audience s validity as a mean to get to know viewers, and also questions the possibility to create other types of links with the viewer. Eventually, Internefs specificity in regard with traditional HERMÈS 37, 2003

281


Résumés - Abstracts

media allows to observe that audience rating might never play a central role in it, a new type of relations being created with users. Keywords: mass media, audience rating, programming schedule, audience, user.

Emmanuel FRAISSE, Que mesure-t-on quand on mesure l'audience? La mesure d'audience, comme toute statistique, est une construction qui tente de rendre compte du réel. Elle constitue une application des sondages et doit son originalité à ses implications économiques, puisque les résultats d'audience constituent la clé de répartition de la manne publicitaire et conditionnent la viabilité de la plupart des supports. Si la notion d'audience est simple («la fraction de la population de référence exposée à un média»), la définition de cette «exposition» et la manière de la relever sont problématiques. D'où un certain nombre de conventions, différentes selon les médias, pour aboutir à une délimitation plausible des faits d'audience, malgré la multiplicité des modalités selon lesquelles un individu est susceptible d'entrer en contact avec un média et les contraintes inhérentes au recueil d'information. Mots-clés: mesure d'audience, médias, supports publicitaires, statistiques, recueil d'information, presse, audiovisuel.

What is measured with audience measurement ? Audience measurement, as any statistics, is a construction which tries to report reality. It consists in a kind of survey and owes its originality to its economical involvements, since audience results are the distribution key of the advertising revenue and condition the economical viability of most media. If the notion of audience is quite simple ("the part of population exposed to a media"), this "exposition's" definition and the way to survey it are problematical. From which one concludes that a certain amount of agreements, which differ according to the media, to reach a plausible delimitation of audience facts, despite the multiplicity of means thanks to which an individual is likely to come into contact with a media and the constraints inherent to the information collected. Keywords: audience measurement, media, statistics, information collection, press, audiovisual.

282

HERMES 37, 2003


Résumés - Abstracts

Jean-Marie CHARON, Presse écrite: du tirage au lectorat La notion d'audience n'apparaît que dans les années cinquante pour la presse écrite, soit tardivement. La méthodologie mise en œuvre butte sur le nombre de titres, la diversité des situations de lecture, l'obligation de faire appel à la mémoire du lecteur. Les enquêtes s'opèrent par questionnaires sur de très vastes échantillons. L'amélioration de la procédure a permis d'élargir le champ des questions couvertes, d'accélérer et lisser les conditions de collecte, mais le nombre de titres étudiés reste forcément restreint, nécessairement limité aux plus grosses diffusions (contrainte statistique). Il est significatif que les divisions entre quotidiens et magazines se soient manifestées très tôt sur l'étude d'audience, chaque forme de presse réalisant la sienne. Mots-clés: presse écrite, quotidiens, magazines, audience, enquête, méthodologie.

Written press: from circulation to readership It is not until the 50s that the notion of audience appeared in the Press, very recently indeed! The methodology used is exposed to the great number of titles, a wide range of reading context and the necessity to appeal to the reader s memory. Surveys are carried out through qustionnaires based on a wide range of samples. The improvement of the process has enabled us to extend the field of questions at issue, to speed up and improve data collecting, but they are exposed to the number of titles under study, inevitably limited, and indeed limited to the largest issues (statistical constraint). It is of importance to note that because many publishers carried out their own audience surveys at an early date, thus the division between daily papers and magazines also appeared very early. Keywords: written press, daily papers, magazines, audience, survey, methodology.

Marie-Dominique CHEVREUX, La radio

pionnière

Placée dans un univers concurrentiel depuis longtemps, la radio est le premier média à s'être doté d'un outil de mesure d'audience, dès 1949. Médiamétrie, chargée de la mesure d'audience des stations nationales et locales, propose aujourd'hui deux outils complémentaires. L'enquête 75 000+ (du nombre de personnes interviewées par an), réalisée chaque jour par téléphone, porte sur l'écoute des 24 dernières heures. Le panel, périodique, demande à un même échantillon de remplir pendant trois semaines un carnet d'écoute. Les indicateurs utilisés en radio comptabilisent soit des individus, quelle que soit leur durée d'écoute (audience cumulée), soit des audiences, c'est-à-dire des HERMÈS 37, 2003

283


Résumés - Abstracts

«auditeurs x quarts d'heure» (audience moyenne, part d'audience). Depuis fin 2002, les auditeurs de 13-15 ans sont pris en compte. L'audimétrie passive (sous la forme de montres) pourrait remplacer prochainement les enquêtes qui font appel à la mémoire de l'auditeur. Mots-clés: radio, mesure d'audience, public, auditoire, audience, indicateurs.

The pioneer radio Put into a competitive universe since a long time, radio is the first media that has given itself an audience measurement system, as soon as 1949. Médiamétrie, in charge of audience measure for national and local radio stations, now proposes two complementary tools. The "75 000+ survey" (referring to the number of people interviewed per year), made each day by phone, is focused on the last 24 hours listening. The panel, which is periodic, requires a same sample to fill in, during three weeks, a listening diary. Indicators used in radio either count up individuals, whatever their listening time is (coverage), or audiences, that is to say "listeners χ quarter of an hour" (rating, share). Since the end of 2002, listeners from 13 to 15 years old are taken into account. Passive metering (thanks to clocks) could in a little while replace surveys, based on listener s memory. Keywords: radio, audience measurement, audience, listeners, indicators.

Régine CHANIAC, Télévision: l'adoption laborieuse d'une référence unique L'évolution de la mesure d'audience TV est indissociable des principales étapes qui ont mené d'une télévision publique en situation de monopole à un système mixte public/privé. Les résultats du panel postal de l'ORTF, premier dispositif fiable et permanent (à partir de 1967), sont réservés aux seuls dirigeants des chaînes, afin d'éclairer une politique de programmes encore volontariste, tandis que le CESP mène une enquête parallèle à destination de la profession publicitaire. La montée de la compétition entre chaînes publiques s'accompagne de l'attention croissante accordée à l'audience et, en 1982, la mise en place de l'audimétrie-foyer représente une véritable révolution, par la rapidité et la précision des résultats obtenus. Avec l'arrivée des chaînes commerciales et la concurrence entre diffuseurs qui en résulte, les publicitaires sont en mesure d'exiger leur participation au contrôle de l'outil géré par Médiamétrie et imposent l'audimétrie individuelle (Médiamat, 1989), qui permet un suivi par cible. Mots-clés: mesure d'audience, télévision, concurrence, publicité, audimétrie-foyer, audimétrieindividu, part d'audience. 284

HERMÈS 37, 2003


Résumés - Abstracts

Television: A hard way to adopt a single reference Evolution of TV audience research is un-dissociable from the main stages which led from a state owned channel without competition to a system joining public and commercial channels. Results from the ORTF mailed panel, first reliable and permanent device (since 1967), are reserved to no more than channel's executives, in order to lighten a program policy still willing, whereas CESP is conducting a parallel survey used by advertisers. Growing competition between public channels comes with growing attention paid to audience and, in 1982, the setting of TV meter represents a real break, since results are rapidly obtained and precise. With the arriving of commercial channels and resulting competition between broadcasters, advertisers have the power to require their participation to the control of the Médiamétrie system and impose people meter, which allows calculating audience by target. Keywords: audience research, television, competition, advertisement, TV meter, people meter, share.

Olivier APPÉ et Jean MAUDUIT, Câble et satellite: il était une fois MédiaCabSat Depuis 2001, MédiaCabSat est l'outil spécifique de la mesure d'audience des chaînes diffusées par câble et satellite, mis en place par Médiamétrie pour répondre à l'enjeu de la multiplication des chaînes thématiques. L'audimétrie, qui permet l'enregistrement de l'écoute sur l'année entière, avec identification automatique des chaînes, a été adoptée. À l'origine, le panel est constitué de 830 foyers, dont les 480 foyers du panel Médiamat qui reçoivent l'offre élargie. L'échantillon, qui doit être représentatif des différentes offres élargies reçues, a été construit à partir d'une enquête nationale de cadrage (75 000+). Pour assurer une fiabilité statistique satisfaisante, malgré la faiblesse de l'échantillon et le grand nombre de chaînes suivies (70 à l'origine), le choix a été fait de fournir des résultats cumulés sur six mois. Les principales caractéristiques de la population disposant d'une offre élargie sont maintenant connues avec précision. Mots-clés: mesure d'audience, câble, satellite, chaînes thématiques, échantillon.

Cable and Satellite: once upon a time MédiaCabSat Since 2001, MédiaCabSat is the specific tool for audience rating of channels broadcast through cable and satellite set by Médiamétrie, to answer the stake of thematic channels' multiplication. Metering, which records the viewing for the whole year, with automatic identification of channels, was passed. At the beginning, the panel is constituted of 830 homes, HERMÈS 37, 2003

285


Résumés - Abstracts

among which the 480 Mediamat panel's homes, which receive the "enlarged offer". The sample, which has to be representative of the different offers received, was built from a national centring survey (75 000 +).. To insure satisfying statistic reliability, despite the samples weakness and the important number of channels followed (70 at the beginning), the choice was made to furnish results reached for six months. The main characteristics of the population, disposing an enlarged offer, are now precisely known. Keywords: audience research, cable, satellite, thematic channels, sample.

Etienne MOUGEOTTE, La loi d'airain du médiamat La mesure d'audience joue un rôle très important dans les décisions prises dans une chaîne comme TF1, qui ne vit que de la publicité. Nous faisons une télévision de la demande et le résultat d'audience exprime une forme de satisfaction du public. Toutefois, c'est un chiffre relatif, qui mesure l'état de la concurrence à un moment donné; un chiffre abstrait, qui moyenne des départs et des arrivées; et un chiffre rétrospectif, qui montre ce qui s'est passé mais ne dit pas ce qu'il faudrait faire pour que cela marche. C'est pourquoi l'audience est d'une faible utilité pour concevoir les programmes. Il n'y a pas de renouvellement de la grille sans prise de risque. Les études peuvent nous aider à saisir des tendances, à confirmer des hypothèses. Mais l'intuition et l'expérience sont essentielles pour prendre la décision d'arrêter une émission ou d'essayer de l'améliorer, et pour créer de nouveaux programmes. Mots-clés: mesure d'audience, public, demande, satisfaction, cibles, chaîne généraliste, programmes.

The "Loi d'airain" of people meter Audience research plays a pretty great role in decisions made in such a channel as TFl, which only lives on advertisement. The television we build is based on demand and audience result expresses kind of a public satisfaction. However, it is a relative figure, which measures the state of competition at a given time; an abstract figure; which ponders viewing rises and falls; and a retrospective figure, showing what has been taking place but not what should be done to make it work. Therefore, audience is of little utility to conceive programs. It's impossible to renew the schedule without taking risks. Surveys can help us to seize trends, to corroborate hypothesis. But intuition and skills are essential to make decision to stop a broadcast or try to improve it, and to create new programs. Keywords: audience research, audience, demand, satisfaction, targets, general channel, programs. 286

HERMÈS 37, 2003


Résumés - Abstracts

Jean-Pierre COTTET, Il n'y a pas de service public sans public L'État actionnaire de la télévision publique est soucieux du rendement social de son investissement. Les programmes des chaînes publiques doivent être globalement vus par le plus grand nombre. Mais en même temps, chaque entité du service public doit respecter un cahier des charges et ne peut être une simple addition de «pièges à audience». Au programmateur de gérer ces paradoxes en forgeant une grille qui s'appuie sur ces contraintes et affirme la relation particulière de chaque chaîne avec le public. L'audience est la récompense d'une programmation généreuse, qui prend des risques et produit du sens. La grille de France 3 s'est construite autour des concepts de proximité et de curiosité; France 2 doit être une grande chaîne de divertissement, d'information et de création; France 5 est une chaîne pédagogique qui tente d'apporter à certains publics qui en ont besoin (notamment les jeunes), des clés pour mieux comprendre la réalité de tous les jours. Mots-clés: audience, public, télévision publique, missions, programmation, cibles, jeunes.

There are no public service broadcasting without Audience State, shareholder of public television, is concerned about his investment's social profit. Public channels' programs generally have to be seen by most people. But in the same time, each public channel has to respect obligations and cannot be a simple accumulation of "audience traps". It is the programmer responsibility to manage these paradoxes building a schedule, which leans on these constraints and affirms each channel's particular relation with the public. Audience is the award for a generous scheduling, taking risks and making sense. France 3's programming was built around proximity and curiosity concepts; France 2 has to be a great entertainment, information and creation channel; France 5 is an educative channel aiming to bring to certain audiences who need it (particularly young people), keys to better understand everyday reality. Keywords: audience, public service television, aims, scheduling targets, young people.

Éric MACÉ, Le conformisme provisoire

de la

programmation

Après avoir montré que l'audience mesurée par l'audimat n'est pas l'expression du public de la télévision mais un indicateur abstrait nécessaire au financement publicitaire, l'article relativise la place de l'audimat (qui n'est qu'un indicateur ex-post) dans l'orientation même de la programmation. Comme toute industrie culturelle, la télévision doit prendre en compte la diversité du «grand public» et l'instabilité socio-historique de ce HERMÈS 37, 2003

287


Résumés - Abstracts

qui est « recevable » et « désirable » par le plus grand nombre. Les programmes de télévision apparaissent ainsi comme des paris fondés sur des « théories » du public et du monde social concernant «ce qui intéresse les gens». D'où l'intérêt sociologique du «conformisme instable» de ces programmes qui permet d'accéder aux diverses manières dont peuvent se «dire», à travers les spécificités de la médiation médiatique, les sociétés. Mots-clés: télévision, audimat, public, programmation, médiation, représentations culturelles.

The changeable conformism of programme planning First of all, the paper demonstrate that ratings are not the audience but a useful commercial artefact for cultural industries. Moreover, one can shows that the (ex-post) ratings are not the main factor of television programme planning. Another approach may be to consider television as a risk industry, which have to deal with diversity and instability of both its social and cultural context of production and reception. In that way, television programme planning is a very specific mediation concerning "how to interest people" - without guarantees. So it would appear that television culture is the expression of the shifting frames of social world representations. Keywords: television, audimeter, audience, programme planning, mediation, cultural representations.

Patrick CHAMPAGNE, L'audimétrie, une censure politique

cachée

Contrairement à ce que l'on admet généralement, la mesure de l'audience en continu («l'audimat»), bien que l'instrument ait été inspiré par les publicitaires et serve en principe à la fixation des tarifs des spots de publicité, ne signifie pas la fin de la censure politique au profit d'une pure soumission aux logiques économiques. La course à l'audience entre les chaînes généralistes, loin de favoriser une diversification de l'offre de programmes, a conduit à une recherche des programmes rassemblant le maximum de téléspectateurs. Tout se passe comme si les programmes étaient désormais soumis au vote des téléspectateurs dans une sorte de «démocratie culturelle». La mesure de l'audience instantanée a ainsi imposé, dans le domaine culturel, un nouveau principe de légitimité, hétéronome parce que politique, qui repose sur la loi de la majorité. Mots-clés: sondages, audience, télévision, publicité, légitimité démocratique.

288

HERMES 37, 2003


Résumés - Abstracts

Metering, a hidden political censorship Contrary to what is generally admitted, non-stop rating ("audimat"), although a tool designed by advertisers and supposed to allow evaluation of advertising spaces' tariffs, doesn't mean that political censorship is being replaced by pure submission to economical logics. Competition for audience between traditional channels, far from enabling variation of the scheduling, led to the research for programs gathering the maximum of viewers. Everything goes as if programs were from now submitted to the viewers vote in kind of a "cultural democracy". Instant ratings imposed; in the cultural field, a new principle of legitimacy, heteronym because political; which lays on the majority law. Keywords: polls, audience, television, advertising, legitimacy.

Yves JEANNERET et Valérie PATRIN-LECLÈRE, Loft Story 1 ou la critique prise au piège de l'audience L'émission de télévision française Loft Story, diffusée au printemps 2001, peut être interprétée comme le signe de l'aboutissement de la logique de l'audience dans le régime télévisuel. Nous proposons ici de montrer que le diffuseur et le producteur ont agencé une industrialisation de l'audience et orchestré une instrumentalisation de la critique. Industrialisation de l'audience en ce sens que tous les ressorts déjà expérimentés ailleurs ont été utilisés ici pour maximiser le nombre de téléspectateurs réunis devant leur écran et pour optimiser la vente de l'espace publicitaire aux annonceurs. Et surtout, instrumentalisation de la critique car la pluralité des voix qui se sont élevées pour discuter du sens social de ce programme de «télé-réalité» a tout à la fois masqué la finalité strictement économique du dispositif et participé à sa réussite. Mots-clés: audience, critique, industrialisation, téléréalité, trivialité.

Criticism trapped by rating: Loft Story, french remake of Big Brother The French television program "Loft Story", which broadcasted in spring 2001, can be interpreted as the ultimate illustration of the drive towards rating in television. We propose to show that the broadcasters arranged an 'industrialization ' of the rating and orchestrated a reaction by critics. Industrialization of the rating in the sense that all the methods previously established were used here to maximize the number of the televiewers and to optimize the exposure of advertisements. And more particularly their orchestration of a reaction by critics, which was illustrated in the abundancy of the voices rising to discuss the social connotations HERMÈS 37, 2003

289


Résumés - Abstracts

of this "reality television" program. This not only masked the financial purpose of the program but also contributed to its success. Keywords: audience rating, criticism, industrialization, real TV, triviality.

Michel SOUCHON, Pour une utilisation complexe de l'audimétrie La plupart de ceux qui dénoncent «la dictature des sondages» et beaucoup de ceux qui utilisent les résultats audimétriques ont une vision simpliste des données, vision centrée essentiellement sur la part de marché et le nombre de spectateurs. Cet article veut montrer qu'il est possible de construire, à partir des données de l'audimétrie, des modèles statistiques un peu compliqués, et de faire ainsi une utilisation intelligente et féconde de cet instrument. A partir des données présentées sous forme d'heures-spectateurs, les indicateurs statistiques proposés ici (par exemple, la structure du volume d'écoute par genres, ou l'indicateur d'intérêt) permettent d'abord une connaissance sérieuse des comportements et des réactions des différentes composantes du public de la télévision, connaissance indispensable aux responsables de la programmation. Ils permettent encore d'évaluer les politiques des sociétés de programmes, notamment celles des télévisions publiques. Mots-clés: audimétrie, indicateurs, statistiques, public, comportements, programmation.

For a complex use of people metering Most of those who proclaim "polls dictatorship" and many of those who use meter ratings have a caricatured vision of data, essentially focused on market share and the quantity of viewers. This paper aims to show it is possible to build, based on metering data, statistic patterns a bit complex, and thus to make a clever and fertile use of this tool. Based on data presented as viewers per hour, statistics measures proposed here (for instance, structure of viewing time by categories of programs (chercher "genre"), or interest measure) first enable a serious knowledge of television audience behaviour, essential to programme planners. They also enable to evaluate channels programming policies, particularly those of public ones. Keywords: metering, indicators/clues, statistics, audience, behaviours, programme planning.

Sophie BENOIT, Une direction des études dans une chaîne de télévision publique Il est essentiel pour une chaîne de télévision, qu'elle soit publique ou privée, de connaître son public. Le groupe Francetélévisions s'est doté d'une direction d'études 290

HERMÈS 37, 2003


Résumés - Abstracts

commune et de trois directions affiliées à chaque chaîne pour regrouper et analyser l'ensemble des données disponibles sur l'auditoire de la télévision. Face à la variété des outils et à la profusion des données, il est primordial de bien sélectionner ce qui est le plus pertinent pour répondre aux demandes des responsables de programme et de programmation. La direction des études décortique les résultats d'audience par cible et utilise les logiciels permettant de suivre les flux de publics, les reports d'une chaîne à l'autre, etc. Les études qualitatives sont indispensables pour anticiper les réactions du public, pour améliorer un programme. Des sondages proposés par des instituts spécialisés complètent ces études internes (baromètres d'image, enquêtes budget-temps, évolutions sociologiques, etc. ). Mots-clés: chaîne publique, public, études, audience, cibles, programmation, programmes.

An audience research department in a public channel J/ is essential for some television channels, whether it is public or private, to know its audience. Francetélévisions group has given itself a common research direction and three directions affiliated to each channel to assemble and analyse the whole available data on television's audience. Facing tools variety and datas abundance, it is imperative to well select what is most relevant to answer demands coming from programme planners. Studies management decorticate audience ratings per target and uses software allowing following audience flows, reports from one channel to another, etc. Qualitative studies are essential to foresee audiences reactions, to improve a program. Surveys proposed by specialised institutes complete these intern studies (barometer, budget-time surveys, sociological evolutions, etc. ) . Keywords: public channel, studies, audience, targets, programming programs.

Dominique BOULLIER, Du téléspectateur citoyen

consommateur

au

téléspectateur

Plutôt que de se plaindre de la mesure d'audience marchande, performante dans son domaine, il serait temps de mettre en place un dispositif instituant un lien durable avec le téléspectateur citoyen et comportant mesure technique, critères, instance de contrôle et de sanction. Plusieurs pistes sont examinées, comme les associations, les revues, les formes démocratiques classiques. Il est plutôt proposé, sur la base de théories de la justice, de combiner à la fois un «indice agrégé de qualité civique», un label et une extension des formes de représentations au sein du CSA. Mots-clés: audience, citoyenneté, dispositifs, qualité, autorité, service public, justice. HERMÈS 37, 2003

291


Résumés - Abstracts

The TV viewer: from a consumer to a citizen Instead of complaining about the success and hegemony of commercial audience ratings, one should contribute to the design of a different relationship with the "citizen-TV viewer", built upon measurement devices, specific criteria, control and retaliation bodies. Different solutions are assessed, such as viewers'associations, TV journals, traditional democratic representation. Theories of justice lead to a proposal combining a "civic quality agregated ratio", a "civic label", and an extension of the representation system for the regulation body, the "Conseil Supérieur de l'Audiovisuel". Keywords: audience, citizenship, quality, authority, public utility, equity.

Marc TESSIER, Le téléspectateur, au cœur de la télévision publique La réflexion sur la contrepartie que la télévision publique doit offrir au paiement de la redevance par l'ensemble des téléspectateurs relève d'un débat public orchestré par les représentants de l'Etat. La télévision publique ne peut se soustraire à une mesure de son audience, mais peut proposer des critères d'évaluation appropriés, comme les indicateurs d'audience cumulée qui expriment l'étendue du public touché. Plus fondamentalement, afin de développer le dialogue avec le public, France Télévisions a instauré un droit de chaque téléspectateur à être écouté, à obtenir une réponse et à s'assurer que ses remarques seront considérées avec respect, à travers un dispositif de médiateurs et un service de relation avec les téléspectateurs. Mots-clés: télévision publique, audience cumulée, droits du téléspectateur, médiateur, relation.

The televiewer, in the heart of public service broadcasting The reflexion on the counterpart which public television must offer to the payment by the whole of the televiewers of the special tax is dependent on a public discussion orchestrated by the representatives of the State. Public television cannot be withdrawn from a measurement of its audience, but can propose adapted criteria of evaluation, like the indicators of reach which express the extent of the touched public. More basically, in order to develop the dialogue with the public, France Televisions founded a right of each televiewer to be listened, to obtain an answer and to make sure that its remarks will be considered with respect, through a device of mediators and a service of relation with the televiewers. Keywords: public service broadcasting, reach, viewers rights, mediator, relation.

292

HERMES 37, 2003


Résumés - Abstracts

Jean-Pierre JÉZÉQUEL, Nouvelle économie: entre unité et diversité Ce qu'on désigne par «nouvelle économie» regroupe un ensemble d'activités disparates: électronique, informatique, télécommunications, audiovisuel. Ces secteurs ont un certain nombre de caractéristiques communes qui peuvent justifier leur rassemblement dans une seule catégorie: économies d'échelle avec le développement de leur taille, productivité accrue, élévation du niveau de concurrence. Mais cela ne saurait cacher la profonde diversité des logiques de marché à l'œuvre dans les différentes formes d'activité. Internet représente à cet égard un bon exemple de la variété des modèles économiques qui devraient assurer les fondements des divers services présents sur la «toile». Même pour des services qui ressemblent, ou peuvent être assimilés, à l'offre de programmes télévisés, l'indicateur d'audience, tel qu'il est utilisé en télévision classique, ne pourra jouer le rôle central qu'il occupe dans cette dernière. D'autres instruments de régulation économique sont à (ré)inventer. Mots-clés: productivité, concurrence, modèle économique, individualisation, traçabilité de l'usager.

"New economy" between unity and diversity What is appointed by "new economy" gathers a set of ill-matched activities: electronics, computer science, and telecommunications, audiovisual. These sectors have some characteristics in common which can justify their gathering in one sole category: scale economy with their size's development, increased productivity, level of competition increased. But, this cant hide the deep diversity of market logics used in these different forms of activity. In this respect, the internet represents a good example of economic models diversity which should insure bases for various services available on the "net". Even for services, which look like, or can be assimilated with the television program offer, audience s indicator, as used in classical television, will not be able to play the central role it now occupies in the former. Other economics regulation tools have to be (re)invented. Keywords: productivity, competition, economical pattern, individualisation, user's traçabilité.

Josiane JOUËT, La pêche aux

internautes

Après avoir questionné l'application de la notion d'audience à Internet, l'article se livre à une analyse critique des dispositifs de mesures et d'études d'audience qui reposent sur un agencement d'outils informatiques, statistiques et marketing. Les mesures de trafic (panel HERMÈS 37, 2003

293


Résumés - Abstracts

d'internautes, relevé des fréquentations de sites) et les enquêtes en ligne ne sont pas tant conçues pour la connaissance des publics que comme outils stratégiques pour la conception de site, la publicité et le commerce électronique. Outre les enjeux déontologiques soulevés par l'exploitation des traces laissées par les internautes, ces dispositifs produisent des modèles de quantification des utilisations qui ne permettent pas de saisir l'usage social du média. Mots-clés: Internet, audience, méthodologie, marketing, usages.

The fishery of Internet users After questioning whether the concept of "audience" is applicable to the Internet, this article provides a critical analysis of Internet audience studies, which are based on a combination of informatics tools, statistics, and marketing. It analyzes the different methodologies used to measure audiences (user centric and site centric devices), as well as online surveys. These devices are mainly used as strategic tools for advertising and electronic commerce. While Internet audience studies raise ethical issues about the protection of users privacy, they merely build empirical models that do not allow us to grasp the social uses of Internet. Keywords-. Internet, audience, methodology, marketing uses.

Hubert BOUCHET, Dans la toile: araignée ou abeille Détenir des informations stratégiques sur autrui a toujours été un enjeu. Avec l'entrée dans le monde industriel marchand et le développement corrélatif de l'offre, le souci de la connaissance de l'autre en tant qu'acheteur potentiel est apparu: les sondages se sont développés pour recueillir des éléments collectifs d'information sur les pratiques, les opinions, etc. Internet introduit une rupture en permettant la connaissance la plus fine des pratiques individuelles: chaque transaction laisse une trace sur le réseau, l'informatique permet de stocker et réunir automatiquement les informations concernant chacun, au risque d'atteindre aux libertés individuelles. La Commission nationale de l'informatique et des libertés (Cnil), autorité instituée par la loi Informatique et libertés (1978), a vocation à veiller au respect des droits des citoyens confrontés à des techniques de plus en plus intrusives. Mots-clés: information, citoyen, informatique, réseau, fichiers, vie privée, libertés individuelles ou publiques. 294

HERMÈS 37, 2003


Résumés - Abstracts

On the net: spider or bee To detain strategic information about one another has always been a stake. Entering the industrial marketing world and the correlative development of the offer, the will to know people as potential consumers appeared: polls developed to gather collective information pieces about practices, opinions, etc. The internet introduces a break allowing the sharpest knowledge of individual practices: each transaction leaves a trace on the network, processing allows to stock and gather automatically information pieces concerning each, risking impairment to individual liberties. The Cnil (national commission for information and liberties), authority instituted by the Information and Liberties law (1978), is aimed at ensuring citizens rights respect confronted to still more intrusive technologies. Keywords: information, citizens, processing network, files, private life, individual or public liberties.

Alain LE DIBERDER, La mesure d'audience des nouveaux médias: une bonne réponse mais quelle est la question ? En matière d'audience, la qualité technique du dispositif de mesure ne suffit pas. La pertinence des concepts mesurés et leur insertion dans un processus de prise de décision sont déterminants. Les chaînes généralistes bénéficient de toute une tradition préalable à l'audimétrie et d'un savoir qualitatif permettant une utilisation complexe de données d'audience en phase avec leur économie. À l'inverse, les chaînes thématiques sont dépendantes de chiffres insuffisants à eux seuls pour juger de leur viabilité économique et qui sont utilisés à défaut de tout autre outil de réflexion. Elles feraient bien de tirer parti des leçons de la crise des sites web pour comprendre que leur économie ne repose pas principalement sur leur part d'audience, mais plutôt sur la satisfaction d'un public fidèle et sur un équilibre entre coûts réels et recettes à court terme. Mots-clés: audience, usage, nouveaux médias, chaînes thématiques, sites web, processus de décision, économie.

The measurement of audience of the new medias: a good answer but what is the question ? As regards audience, the technical quality of the device of measurement is not enough. The relevance of the measured concepts and their insertion in a process of decision-making are determining. The TV profit from a whole tradition preliminary to the people metering and HERMÈS 37, 2003

295


RĂŠsumĂŠs - Abstracts

from a qualitative knowledge allowing a complex use of data of audience in phase with their economy. On the contrary, the thematic TV are dependent on figures insufficient, if they are alone, to judge their economic viability and which are used in the absence of all other tool of reflexion. They would make well benefit from the lessons of the crisis of the Web sites to understand that their economy does not rest mainly on their share, but rather on the satisfaction of a faithful public and on a balance between real costs and short-term receipts. Keywords: audience, use, new medias, thematic TV, Web sites, decision-making process, economy.

296

HERMES 37, 2003


LES AUTEURS DE HERMÈS 37

Olivier Appé, directeur du département Télévision de Médiamétrie. Diplômé d'HEC, il a commencé sa carrière dans une agence de publicité, puis à la Sofrès pendant sept ans. Après un premier passage à Médiamétrie (1989-1990), il devient directeur du marketing et des études de M6 Publicité (1990-1997), avant de revenir à Médiamétrie pour son poste actuel, en 1997. Sophie Benoit, directrice adjointe des études de France Télévisions, directrice des études de France 2. Hubert Bouchet, secrétaire général de l'Union des cadres et ingénieurs Force ouvrière, membre du Conseil économique et social, vice-président délégué de la Commission nationale de l'informatique et des libertés (Cnil). Il est notamment l'auteur du rapport sur « Les leviers immatériels de l'économie française » (1994), au Conseil économique et social. Dominique Boullier, anthropologue, professeur à l'université de technologie de Compiègne, directeur de Costech (Connaissance, organisation et systèmes techniques). La Conversation télé, L'Harmattan, 2003. Patrick Champagne, sociologue à l'Institut national de la recherche agronomique (Inra) et au Centre de sociologie européenne (EHESS). Il est l'auteur de Faire l'opinion. Le nouveau jeu politique, Paris, Éditions de Minuit, 1989 (2e édition avec une préface, 2001) et de nombreux articles sur le champ journalistique dans la revue Actes de la recherche en sciences sociales. Régine Chaniac, directeur de recherche à l'Institut national de l'audiovisuel (Ina). Sociologue, ses travaux ont pour objet la télévision, et notamment l'évolution des programmes et des programmations, à l'échelle française et européenne, l'analyse des comportements du public et, plus généralement, le rôle culturel des médias. Dernier ouvrage p a r u : Télévision et cinéma. Le désenchantement (avec Jean-Pierre Jézéquel), Paris, Nathan, 1998. HERMÈS 37, 2003

297


Les auteurs de Hermès 37

Jean-Marie Charon, sociologue au Centre d'étude des mouvements sociaux (CEMS), spécialiste des médias, EHESS, ingénieur CNRS. Marie-Dominique

Chevreux,

directrice des études de Radio France.

Jean-Pierre Cottet, directeur général de France 5. A commencé sa carrière comme journaliste dans la presse écrite et en radio, avant de devenir producteur (directeur général de la société Col-Ima-Son, de 1976 à 1 9 8 5 ; puis de Caméras continentales, de 1985 à 1993) et distributeur (Amaya Distribution, 1990-1993). Il devient ensuite directeur de l'antenne et des programmes de France 3 (1994-1996), directeur général chargé de l'antenne de France 2 (1996-1998), avant de rejoindre France 5 à son poste actuel depuis 2000. Emmanuel Fraisse, directeur général du Centre d'étude des supports de publicité (CESP). Diplômé de l'ESSEC et docteur en psychologie sociale, il a fait l'essentiel de son parcours en instituts d'études (Secodip, Ifop) et a été notamment à la tête du département Médias de la Sofrès pendant dix ans, avant son arrivée au CESP à son poste actuel, en 1995. Yves Jeanneret, professeur de sciences de l'information et de la communication à l'université de Paris 4 Sorbonne, École des hautes études en sciences de l'information et de la communication (Celsa) et chercheur au CNRS, laboratoire Langages, logiques, informatique, communication, cognition (LaLICC). Il travaille sur la trivialité des valeurs culturelles, sur les formes d'écriture et sur les transformations médiatiques. Il a publié récemment Y a-t-il (vraiment) des technologies de l'information ?, Presses du Septentrion, 2000. Jean-Pierre Jézéquel, directeur de recherche à l'Institut national de l'audiovisuel (Ina). Économiste de formation, il a exercé ses premières fonctions à l'ORTF puis à l'Ina où il dirige des travaux de recherche depuis 1987. Ceux-ci concernent tout particulièrement les questions de production et de programmation de la télévision. Dernier ouvrage paru Télévision et cinéma, Le désenchantement (avec Régine Chaniac), Paris, Nathan, 1998. Josiane Jouët, professeur en sociologie de la communication à l'Institut français de presse, université Paris II, Panthéon-Assas. Elle y assure la responsabilité du DEA « Audiences, réception, usages des médias et du multimédia ». Ses travaux portent principalement sur les usages des nouvelles technologies de l'information et de la communication. Elle a notamment co-dirigé (avec Dominique Pasquier) le dossier de la revue Réseaux sur « Les jeunes et l'écran » (n° 92-93, 1999) et publié un important article « Retour critique sur la sociologie des usages » dans Réseaux, n° 100 (2000). Anne-Marie Laulan, président d'honneur de la Société française des sciences de l'information et de la communication (SFSIC). Professeur émérite de sociologie, université de Bordeaux; spécialiste des relations entre identités culturelles et modernisation. 298

HERMÈS 37, 2003


Les auteurs de Hermès 37

Alain Le Diberder, président-directeur général de la société CLVE (Communication and life in virtual environments), qui développe des logiciels destinés à la gestion des réseaux de relations personnelles, et consultant en matière de nouveaux médias. Directeur du département communication du BIPE, à partir de 1983, il devient directeur de la recherche et des études de France Télévision, de 1991 à 1994, et dans ce cadre, administrateur de Médiamétrie. Il publie plusieurs ouvrages et de nombreux articles portant notamment sur l'audience de la télévision. Ensuite, il lance sur Canal Plus plusieurs émissions et les sites Web du groupe, avant de partir en 2000, en désaccord avec la stratégie Internet menée alors par Vivendi. Éric Macé, Centre d'analyse et d'intervention sociologiques (Cadis), EHESS, CNRS. Université Paris III, Sorbonne nouvelle. Jean Mauduit, conseiller de la présidence de Médiamétrie. Ancien élève de l'Ecole normale supérieure, docteur ès-lettres et sciences humaines, a fait toute sa carrière dans les médias, notamment à Elle, dont il a été secrétaire général et au groupe Hachette comme directeur de la communication. Il a été président de l'Irep (Institut de recherche et d'études publicitaires) et du CRTM (Club de recherche tous médias) et administrateur de Médiamétrie au titre de Publicis. Étienne Mougeotte, vice-président de TF1, directeur général de l'antenne. A commencé sa carrière de journaliste en 1965 à France-Inter, puis Europe 1, avant de passer à la télévision en 1969 dans l'équipe d'Information Première, dirigée par Pierre Desgraupes sur la première chaîne. Sa carrière se poursuit ensuite entre la radio (RTL, Europe 1, où il est directeur de l'information de 1974 à 1981) et la presse (il est notamment directeur de la rédaction de Télé 7 Jours de 1983 à 1987). En 1987, il entre à TFl récemment privatisée comme directeur général de l'antenne et en devient le vice-président en 1989. Valérie Patrin-Leclère, maître de conférence en sciences de l'information et de la communication à l'université de Paris 4 Sorbonne, École des hautes études en sciences de l'information et de la communication (Celsa) et chercheur au CNRS, laboratoire Langages, logiques, informatique, communication, cognition (Lalicc). Elle étudie l'économie des médias et en particulier les relations qui s'établissent entre logiques de communication et logiques d'information. Elle a soutenu une thèse intitulée « Pour un contrat de lecture global: l'exemple de la presse TV française ». Serge Proulx, directeur du Groupe de recherche sur les médias, département des communications, université du Québec à Montréal. Jacques Rigaud, ancien administrateur délégué de la Compagnie luxembourgeoise de télédiffusion et président de RTL. HERMÈS 37, 2003

299


Les auteurs de Hermès 37

Éric Sautedé, rédacteur en chef de Chinese Cross Currents, Institut Ricci de Macao. Michel Souchon, docteur en sociologie, a été responsable d'études dans les services de recherche de la télévision française, à l'ORTF, de 1970 à 1975. De 1975 à 1985, il a dirigé le Groupe d'études des systèmes de communication à l'Institut national de l'audiovisuel. Il a été ensuite, de 1985 à 1989, directeur des études de TF1 puis d'Antenne 2. De 1991 à 1995, il a été consultant à la présidence commune de France Télévision. Il est l'auteur de nombreux articles et de plusieurs ouvrages La Télévision des adolescents (1969), Petit écran grand public (1980), Trois semaines de télévision. Une comparaison internationale (1982), L'Enfant devant la télévision des années 1990 (en collaboration, 1991). Groupe Bayard. Simonetta

Tabboni, professeur émérite à l'université de Paris VII-Denis Diderot.

Marc Tessier, président de France Télévisions depuis juin 1999, et à ce titre, président de France 2, France 3 et France 5. X-Ena, inspecteur des Finances en 1971, il commence sa carrière dans la Fonction publique avant de rejoindre, en 1982, le groupe Havas, comme directeur financier puis directeur général. Il participe au lancement de Canal Plus dont il devient le directeur général en 1984. Il assure le développement du groupe Canal Plus à l'étranger, puis en France, où il lance le projet numérique. De 1995 à 1999, il est directeur général du Centre national de la cinématographie (CNC). Dominique Wolton, directeur de recherche au CNRS, laboratoire communication et politique. Directeur de l'UPS information, communication et enjeux scientifiques. Directeur de la revue Hermès, CNRS, Paris.

300

HERMES 37, 2003


HERMES_37  

Essai de ce widget pour la revue HERMES

Advertisement
Read more
Read more
Similar to
Popular now
Just for you