Forschungsmethoden - Adoption und Diffusion von Technologien am Beispiel von Social Media

Page 1

Doktoranden-Seminar „Einführung in die Wissenschaftstheorie und -methodik: Forschungskonzeption“ Prof. Dr. Thomas Dyllick, Prof. Dr. Torsten Tomczak

Forschungsmethoden: Adoption und Diffusion von Technologien am Beispiel von Social Media

Autor:

Christoph Lutz

Track:

Marketing

Institut:

MCM

Lehrstuhl:

Prof. Dr. Miriam Meckel

Adresse:

Blumenbergplatz 9 9000 St. Gallen

E-Mail:

christoph.lutz@unisg.ch

Abgabedatum:

15. Januar 2013


Inhaltsverzeichnis Tabellenverzeichnis

II

Abbildungsverzeichnis

II

1 Einleitung

1

2 Vorstellung des Dissertationsprojekts

2

3 Artikelanalyse

4

3.1 Übersicht über die Artikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Bewertung der Artikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 6

3.2.1

Artikel 1: Moore & Benbasat (1991) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

3.2.2

Artikel 2: Venkatesh & Davis (2000) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

3.2.3

Artikel 3: Purvis, Sambamurthy & Zmud (2001) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3.2.4

Artikel 4: Pan & Jang (2008) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3.2.5

Artikel 5: Goldenberg, Han, Lehmann & Hong (2009) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3.2.6

Artikel 6: Iyengar, van den Bulte & Valente (2011) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.2.7

Zusammenfassung der Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4 Lerneffekte

21

5 Schluss

23

Literatur

25

Anhang

28

.1

Zusammenfassende Beurteilung der Artikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

.2

Lebenslauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

.3

Eigenständigkeitserklärung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

I


Tabellenverzeichnis 1

Berücksichtigte Artikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4

2

Bewertung Moore & Benbasat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

3

Bewertung Venkatesh & Davis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4

Bewertung Purvis, Sambamurthy & Zmud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5

Bewertung Pan & Jang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

6

Bewertung Goldenberg, Han, Lehmann & Hong . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

7

Bewertung Iyengar, van den Bulte & Valente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

8

Gegenüberstellung der Bewertung der Artikel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Abbildungsverzeichnis 1

Modellhafte Darstellung des Dissertationsprojekts . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

Verordnung der Artikel im Rigor/Relevance Spektrum (Quelle: Eigene Darstellung in

3

Anlehnung an Dyllick, 2012, S. 63) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6

3

Izak Benbasat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

4

Überprüftes Modell für Artikel 2: Technology Acceptance Model 2 (Quelle: Venkatesh & Davis, 2000, S. 188) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

5

Russell L. Purvis, Vallabh Sambamurthy und Robert W. Zmud . . . . . . . . . . . . . . . . . . . . 12

6

Überprüftes Modell für Artikel 3 (Quelle: Purvis et al., 2001, S. 122) . . . . . . . . . . . . . . . . 12

7

Überprüftes Modell für Artikel 4 (Quelle: Pan & Jang, 2008, S. 96) . . . . . . . . . . . . . . . . . . 14

8

Jacob Goldenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

9

Raghuram Iyengar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

10

...And the winner is . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

„Ernst zu nehmende Forschung erkennt man daran, daß plötzlich zwei Probleme existieren, wo es vorher nur eines gegeben hat.“ Thorstein Veblen

„Die Idee sitzt gleichsam als Brille auf unsrer Nase, und was wir ansehen, sehen wir durch sie. Wir kommen gar nicht auf den Gedanken, sie abzunehmen.“ Ludwig Wittgenstein

II


1

EINLEITUNG

1 Einleitung Forschungsmethoden sind unabdingbarer Bestandteil jeder empirischen Arbeit. Sie sind das Werkzeug, mit dem Forschungfragen beantwortet werden und gehören unmittelbar zur Forschungskonzeption (Diekmann, 2004). In der empirischen Sozialforschung können wir im Groben drei methodische Herangehensweisen unterscheiden: rein konzeptionelle Ansätze, quantitative und qualitative Methoden (Dyllick, 2012). Daneben lassen sich qualitative und quantitative Ansätze kombinieren, z. B. in Form von Mixed-Methods Studien oder mittels Triangulation (Jick, 1979). In dieser Seminararbeit konzentriere ich mich auf quantitative Methoden. Das hat mehrere Gründe: Zunächst sind quantitative Methoden in der Forschung zur Technologieakzeptanz und -adoption – mit der sich diese Arbeit auseinandersetzt – sehr verbreitet. Viele Studien greifen auf Umfragedaten zurück oder arbeiten mit experimentellen Methoden, die quantitative Auswertungsverfahren wie ANOVA voraussetzen. Ausserdem kenne ich mich mit quantitativen Ansätzen besser aus als mit qualitativen. Dies hat mit meiner universitären Ausbildung zu tun, aber auch mit persönlichen Vorlieben und der bisherigen Forschungserfahrung als Doktorand (siehe Lebenslauf im Anhang). Deshalb kann ich quantitative Studien besser und genauer beurteilen als rein qualitative. Schliesslich werde ich für meine Dissertation vorwiegend quantitative Methoden verwenden, womit sich mehr Synergien ergeben als bei der Bearbeitung qualitativer Literatur. Ziel der Arbeit ist es, sechs dissertationsrelevante Journal-Artikel in Hinblick auf ihre methodische Qualität angemessen zu untersuchen. Dabei begutachte ich die Artikel kritisch und versuche einerseits positive Aspekte herauszuarbeiten, also die Erkenntnisleistung der Beiträge zu würdigen. Andererseits möchte ich auf Schwachstellen hinweisen und damit den Reflexionsprozess für die eigene Dissertation in Gang setzen. Die Ergebnisse aus der Analyse sollen die Dissertation schärfen und helfen, Fallstricke zu vermeiden. Ich will die Artikel dabei möglichst fair und transparent beurteilen. Die Arbeit ist in fünf Kapitel gegliedert. Nach der Einleitung stelle ich mein geplantes Dissertationsthema vor. Darin beziehe ich mich auf ein Projekt, welches unser Institut in Zusammenarbeit mit der Freien und Hansestadt Hamburg durchführt. Im dritten Kapitel - dem Hauptteil der Arbeit vergleiche ich sechs dissertationsrelevante Artikel auf ihre Forschungsmethoden hin. Anschliessend resümiere ich im vierten Teil Lerneffekte, die ich aus der Analyse ziehen konnte: Dies geschieht sowohl allgemein als auch konkret in Bezug auf mein eigenes Dissertationsvorhaben. Im Schlussteil fasse ich die wichtigsten Erkenntnisse der Arbeit zusammen, nenne einige Limitationen und zeige mögliche Anschlüsse für zukünftige, ähnlich gelagerte Arbeiten auf.

1


2

VORSTELLUNG DES DISSERTATIONSPROJEKTS

2 Vorstellung des Dissertationsprojekts Mein Dissertationsprojekt steckt noch ganz in der Anfangsphase. Obwohl ich die genaue Forschungsfrage noch nicht kenne, steht das übergeordnete Thema fest: Die Arbeit wird im Bereich Social Media verortet sein. Im Folgenden stelle ich die provisorische Forschungskonzeption vor, die auf einem Projekt unseres Instituts mit der „Freien und Hansestadt Hamburg“ beruht1 und den Titel „Verwaltung 2.0“ trägt. Dabei erheben wir die Social Media Readiness bei den Mitarbeitenden der Hamburger Verwaltung. Unser übergeordnetes Ziel ist es, sowohl die individuelle als auch die organisationale Dimension mit einem quantitativen Online-Fragebogen abzubilden. In einer ersten qualitativen Phase führte das Projektteam teilstrukturierte Leitfadeninterviews mit zentralen Akteuren der Hamburger Behörden und behördennahen Organisationen2 im Bereich Social Media durch. Aufbauend auf diesen Interviews und gespeist durch Theorien der Technologieakzeptanz (Davis, 1989; Venkatesh & Davis, 2000; Venkatesh et al., 2003; Venkatesh & Bala, 2008), der organisationalen Diffusion von Innovationen (Rogers, 1995; Iacovou et al., 1995) und des Corporate Entrepreneurship (Covin & Slevin, 1991; Hornsby et al., 2002; Kearny et al., 2009; Kuratko et al., 2005; Lumpkin & Dess, 1996) leitete das Projektteam ein Kausalmodell zur quantitativen Überprüfung ab, das sowohl individuelle als auch organisationale Treiber umfasst (siehe Abbildung 1 auf der nächsten Seite3 ). Dieses Modell wurde mit bewährten und gut validierten Skalen operationalisiert und der Fragebogen befindet sich im Startblock für alle Mitarbeitenden der Hamburger Verwaltung mit einem Computerarbeitsplatz inkl. Internetanschluss (Grundgesamtheit = ca. 40000). In den folgenden Wochen soll es mit der Befragung losgehen. Ich möchte meine Dissertation kumulativ verfassen und stelle mir folgendes Vorgehen mit drei Artikeln als Output vor: • Erklärung der individuellen Social Media Readiness, d. h. der Unterschiede zwischen einzelnen Mitarbeitenden, durch individuelle Merkmale wie z. B. Alter, Geschlecht, Erfahrung, Sorgen oder soziales Umfeld • Erklärung der organisationelen Social Media Readiness, d. h. der Unterschiede ziwschen einzelnen Ämtern aufgrund unterschiedlicher Führungsunterstützung, Prozesse, Strukturen etc. • Synthese der individuellen und organisationalen Perspektive in Form eines Mehrebenenmodells Für Punkt 1 stütze ich mich auf den Frageblock zu den individuellen Determinanten der Social Media Readiness, d. h. auf die Route „Individuelle Faktoren -> Individuelle Einsatzbereitschaft“ in Abbildung 1. Für Punkt 2 verwende ich dagegen die organisationalen Items und versuche diese für die

1 Eine

etwas umfassendere Beschreibung findet sich auf Alexandria: www.alexandria.unisg.ch/Projekte/Christoph_Lutz/151241 2 Zu nennen sind hier z. B. Hamburg Marketing, hamburg.de - verantwortlich für den offiziellen Webauftritt der Verwaltung - oder die Kreativagentur. Letztere ist für die Förderung der Kreativwirtschaft in der Stadt zuständig. 3 Alle Abbildungen ohne Quellenangabe sind eigene Abbildungen. Informationen zu den Autorenbildern finden sich auf Seite 26 am Ende der Literaturangaben.

2


2

VORSTELLUNG DES DISSERTATIONSPROJEKTS

einzelnen Verwaltungseinheiten zu aggregieren, um Unterschiede festzustellen (obere Route in Abbildung 1). Für Punkt 3 kombiniere ich die individuelle und organisationalen Aspekte in Form der statistischen Methode des Mehrebenenmodells (Hox, 2010; Raudenbush & Bryk, 2002; Tabachnick & Fidell, 2007, S. 781-857). Damit will ich mit meinem Dissertationsprojekt die soziale und organisationale Einbettung des Themas Social Media Readiness besser beleuchten (Granovetter, 1985), denn bislang stützen sich die meisten Studien entweder auf die individuelle oder organisationale Ebene. Selten findet jedoch ein Kombination der beiden Perspektiven statt. Diese Forschungslücke möchte das Projekt für das Thema „Social Media in der Verwaltung“ schliessen. Die betrachteten Artikel sind für mein Dissertationsvorhaben relevant, weil sie beispielhaft untersuchen, welche Erklärungsfaktoren die Akzeptanz und Adoption neuer Informations- und Kommunikationstechnologien (IKT) steigern oder hemmen - und das auf individueller Ebene einerseits (Moore & Benbasat, 1991; Venkatesh & Davis; Iyengar et al., 2011) und auf organisationaler andererseits (Purvis et al., 2001; Pan & Jang, 2008). Nicht berücksichtigt im Forschungsdesign von Verwaltung 2.0 wurde dagegen die aggregierte Makroebene eines ganzen Marktes oder Landes (Goldenberg et al., 2009). Wenn wir Social Media als eine IKT betrachten, so lassen sich viele Herangehensweisen aus der bisherigen Forschung auf das Phänomen übertragen. Deshalb ist die Kenntnis grundlegender Theorien, Modelle und Methoden, wie sie die hier besprochenen Artikel beispielhaft vorbringen, unabdingbar.

Abbildung 1: Modellhafte Darstellung des Dissertationsprojekts

3


3

ARTIKELANALYSE

3 Artikelanalyse 3.1 Übersicht über die Artikel Tabelle 1 zeigt die ausgewählten Artikel. Es handelt sich sowohl um ältere „Klassiker“ als auch um neuere Beiträge, die das Zeug zum Klassiker haben. Tabelle 1: Berücksichtigte Artikel

Autoren

Moore & Benbasat

Venkatesh & Davis

Purvis et al.

Pan & Jang

Goldenberg et al.

Iyengar al.

Jahr

1991

2000

2001

2008

2009

2011

Journal

Information Systems Research

Management Organization Journal of Science Science Computer Information Systems

Journal of Marketing

Marketing Science

Ranking

A+ / 2.145

A+ / 1.733

A / 4.338

B / 0.822

A+ / 3.779

A+ / 2.360

Zitation Artikel

GS: 3765 WOS: – Mend.: 150

GS: 4802 WOS: 1463 Mend.: 301

GS: 347 WOS: 121 Mend.: 46

GS: – WOS: 20 Mend.: 17

GS: 149 WOS: 44 Mend.: 66

GS: 146 WOS: 29 Mend.: 86

Ranking bezieht sich auf das Journal: VHB-Ranking / ISI Impact Factor

Quelle: siehe Literaturverzeichnis, S. 27

GS=Google Scholar, WOS=Web of Science, Mend.=Mendeley, –=keine Angabgen vorhanden

Folgende Kriterien waren ausschlaggebend für die Auswahl der Artikel (u. a. Dyllick, 2012): • Top Journal • Breites Spektrum an quantitativen Methoden • Verschiedene theoretische Herangehensweisen und Schulen • Verschiedene kulturelle Kontexte • Unterschiedliche Rezeption, gemessen durch die Zitate • Unterschiedliches Alter der Beiträge • Unterschiedliche Fachdisziplinen, ausgedrückt durch die Journals Die Auflistung verdeutlicht das breite Sampling und Tabelle 1 die weitgehende Erfüllung der Kriterien: Mit Information Systems Research (ISR) und Journal of Computer Information Systems (JCIS) sind zwei Publikationen der Wirtschaftsinformatik vertreten. Management Science und Organization Science enthalten ein breites Spektrum an betriebswirtschaftlichen Themen: Es handelt sich um klassische

4

et


3

ARTIKELANALYSE

Management-Journals, die sich klar an der Theorie und weniger an der Praxis orientieren4 . Mit dem Journal of Marketing und Marketing Science haben schliesslich auch zwei reine Marketing-Journals Eingang in die Bewertung gefunden. Wie wir in den folgenden Unterabschnitten genauer sehen, ist das Kriterium der Methodenpluralität ebenfalls erfüllt - mit einem breiten Spektrum an quantitativen Methoden, das von eher explorativen zu strikt konfirmatorischen Verfahren reicht. Beispiele für ersteres sind die Explorative Faktoranalyse (EFA), aber teilweise auch die soziale Netzwerkanalyse und Agent-Based Models (Goldenberg et al., 2009) sowie die Itemgenerierung in der Skalenentwicklung (Moore & Benbasat, 1991). In den konfirmatorischen Rahmen fallen dagegen Strukturgleichungsmodelle (Purvis et al., 2001), lineare und logistische Regression (Venkatesh & Davis, 2000; Pan & Jang, 2008) oder die Survival Analysis (Iyengar et al., 2011). Manche Studien verwenden einen Mix aus konfirmatorischen und explorativen Herangehensweisen, so z. B. Pan & Jang (2008), die zunächst eine EFA und dann eine logistische Regression durchführen. Ferner war es mir wichtig, unterschiedliche Theorielinien zu berücksichtigen. Dies geschah durch eine altersmässige Abstufung der Artikel. 20 Jahre liegen zwischen dem ältesten Beitrag und dem neuesten - eine Zeitraum, in dem sich nicht nur in der Wissenschaft, sondern auch im Umfeld viel getan hat: Dank dem exponentiellen Wachstum der Rechenkapazitäten ergeben sich ständig ausgeklügeltere Auswertungsmethoden. Zudem hat sich die Verfügbarkeit von Daten durch die Verbreitung des Internets und mobiler IKT enorm erhöht. Diese Sachverhalte gilt es zu reflektieren beim Vergleich unterschiedlicher Forschungsmethoden. Konzeptionelle und theoretische Unterschiede zwischen den Artikeln sind aber auch verschiedenen institutionellen Logiken geschuldet: Wie erwähnt stammen die Journals aus drei Feldern, nämlich Wirtschaftsinformatik, Management (BWL) und Marketing, und jedes dieser Felder hat eigene Traditionen, Diskurse und Idiosynkrasien. Die beiden Marketing-Artikel gehen z. B. viel stärker auf den Produktaspekt ein und argumentieren eher auf individueller und aggregierter (Markt)ebene, nicht aber auf dem oganisatorischen Level. Bei den IS-Artikeln steht die organisatorische Perspektive stärker im Vordergrund, nicht aber das Aggregat eines ganzen Markts oder die Feinheiten der Individualpsychologie. Auch die Herkunft und die Universitäten der Autoren sind breit gestreut. Obwohl der grössere Teil in den USA lehrt, haben wir mit Goldenberg et al. (2009) einen Vertreter aus Israel und mit Pan & Jang (2008) zwei Autoren aus Taiwan, die auch dort forschen. Ferner stammen verschiedene Autoren ursprünglich aus Indien (Venkatesh, Sambamurthy, Iyengar), was ebenfalls für die geographische Diversität spricht. Wie die folgende Abbildung zeigt, sind alle Artikel eher dem Spektrum wissenschaftliche Strenge als Praxisrelevanz zuzuordnen. Manche haben aber zudem den Anspruch anschlussfähig für praktische Anwendungen zu sein. Dies trifft insbesondere für den Artikel von Iyengar und Kollegen zu, die mit Marktforschungsdaten arbeiten und deren Erkenntnisse für Pharmaunternehmen beim Vertrieb neuer Medikamente durch-

4 Die

Mission Statements der beiden Journals finden sich auf http://www.informs.org/Pubs/ManSci/Journal-EditorialStatement für Management Science und http://www.informs.org/Pubs/OrgSci/Editorial-Statement für Organization Science.

5


3

ARTIKELANALYSE

Abbildung 2: Verordnung der Artikel im Rigor/Relevance Spektrum (Quelle: Eigene Darstellung in Anlehnung an Dyllick, 2012, S. 63)

aus wertvoll sind. Pan & Yang’s und Purvis et al.’s Beiträge zeichnen sich durch ihre grössere Spezifität im Vergleich zu Moore & Benbasat, Venkatesh & Davis sowie Goldenberg et al. aus. Denn die erstgenannten Autoren betrachten mit CASE Wissensplattformen (Purvis et al.) und Enterprise Resource Planning (ERP) Systemen (Pan & Yang) konkrete IT-Anwendungen, während letztere eher allgemeine und theorieentwickelnde Erkenntnisse in den Vordergrund stellen. Allen Artikeln ist jedoch eine starke Theorieorientierung eigen. Besonders bei Moore & Benbasat, wo es um den Fortschritt der IS Forschung durch das Angebot eines validen Messinstruments geht, und bei Venkatesh & Davis, deren Ziel die Entwicklung und Validierung eines neuen Modells ist, kommt das deutlich zum Vorschein.

3.2 Bewertung der Artikel Zur Bewertung der Artikel habe ich ein einheitliches Kriterienraster verwendet, das die wichtigsten Aspekte der Forschungsmethoden beinhaltet und gewichtet. Vier Kriterien flossen in die Bewertung ein: • Daten (0.2) • Methodische Sorgfalt (0.3) • Messung und Operationalisierung (0.3) • Dokumentation (0.2)

6


3

ARTIKELANALYSE

In Klammern steht die Gewichtung des jeweiligen Kriteriums. Alle umfassen spezifische Subkriterien, die im Laufe der Analyse offensichtlich werden. Ein guter Datensatz sollte z. B. eine möglichst hohe Rücklaufquote und externe Validität haben. Unter methodischer Sorgfalt verstehe ich die korrekte Anwendung des jeweiligen statistischen Verfahrens, ohne Fehlinterpretationen oder Weglassen wichtiger Schritte. Auch die adäquate Methodenwahl und Begründung inkusive Abwägung möglicher Alternativen fällt unter diesen Punkt. Beispielsweise eignet sich die lineare OLS-Regression nicht für dichotome abhängige Variablen oder ist bei der Verletzung der Unabhängigkeitsannahme, wie sie bei Netzwerkdaten vorkommt, nicht angebracht. Eine saubere, d. h. reliable und valide Messung der zu betrachtenden Grössen ist ein weiterer unabdingbarer Bestandteil jedes guten Forschungsdesigns. Das ausgeklügeltste Verfahren nützt nichts, wenn die Datenqualität gering ist oder die betrachteten Grössen unbefriedigend gemessen wurden (DeVellis, 2012, S. 14-15). Ein letztes wichtiges Kriterium ist die transparente Dokumentation der Methoden und Ergebnisse: Das Vorgehen der Forschenden sollte nachvollziehbar sein, z. B. indem sie bei Umfragen und Experimenten den Fragebogen im Anhang oder Text veröffentlichen – v. a. wenn es sich um ein neues, nicht erprobtes Instrument handelt. Ferner ist auch die grafische und leserfreundliche Aufbereitung ein wichtiges Stichwort. Die Gewichtung zeigt, dass alle Kriterien die Güte des Forschungsdesigns bedeutend beeinflussen. Ich werde die Artikel jeweils mit einer Note von 0 (Worst Case Scenario, schlechtest mögliches Abschneiden) bis 10 (perfekt, alles richtig gemacht) für jedes einzelne der oben genannten vier Kriterien bewerten. Letztere stehen stehen dabei nicht vollständig unbhängig voneinander, denn eine geringe Datenqualität macht beispielsweise auch die Umsetzung der jeweiligen Analyse schwieriger und problematischer. Gleichzeitig verunmöglicht ein schlecht konstruierter Fragebogen mit unreliablen und -validen Konstrukten die Interpretation der Ergebnisse – und vernebelt damit die für ein gutes Abschneiden bei „Dokumentation“ erforderliche Transparenz.

3.2.1 Artikel 1: Moore & Benbasat (1991) Moore & Benbasat entwickeln hier eine Skala zur Wahrnehmung von IT-Innovationen. Als theoretische Basis stützen sie sich auf bisherige Untersuchungen im Bereich IT-Adoption und -akzeptanz sowie auf die Diffusionstheorie von Rogers (1995, zuerst 1962). Sie weisen darauf hin, dass in der Wirtschaftsinformatik – und besonders im Feld der Technologieadoption und -akzeptanz – keine kumulative Forschungstradition besteht. Des Weiteren stellen sie eine Theoriearmut im Feld fest. Beides hängt unmittelbar mit dem Fehlen eines verlässlichen Messinstruments zusammen, das die Wahrnehmung von IT-Innovationen valide abbildet. Die Forschungslücke sehen die Autoren denn auch im Fehlen eines ganzheitlichen und trotzdem kurzen Fragekatalogs zur Wahrnehmungsmessung von IT-Innovationen. Sie wollen diese Lücke schliessen und folgen dabei einem klassischen Skalenentwicklungsprozess mit drei Phasen: erstens Itemgenerierung, zweitens Sortierung und drittens Verfeinerung durch Explorative Faktoranalyse (EFA) und Diskriminanzanalyse (DA). Moore & Benbasat dokumentieren diesen Prozess anschaulich und detailliert. Am Ende steht eine Skala mit acht Konstrukten und 38 Items. Zusätzlich soll eine reduzierte Version der Skala mit 25 Items den Erhebungsaufwand erleichtern. Fünf der acht Konstrukte leiten sich von Rogers (1995) ab: rela-

7


3

ARTIKELANALYSE

tiver Vorteil, Komplexität, Erprobbarkeit, Beobachtbarkeit/Sichtbarkeit, Vereinbarkeit5 . Hinzu kommen mit Freiwilligkeit (voluntariness), Image und Beweisbarkeit (demonstrability) drei Konstrukte, die sich in der Sortierungs- und Verfeinerungsphase als ebenfalls trennscharf herausgestellt haben. Wie erwähnt folgt der Skalenentwicklungsprozess drei klar dokumentierten Phasen: In Phase 1 generieren die Autoren auf Basis der Literatur 94 Items und in Phase 2 legen sie diese insgesamt 18 Probanden in vier Runden zur Sortierung vor. In der ersten Runde müssen vier Probanden (in der Studie ist von Richtern - judges - die Rede) unabhängig voneinander die Items in klar abgrenzbare Kategorien einteilen und letztere mit einem passenden Titel versehen. Nicht eindeutig zuordenbare Items bleiben übrig. In der zweiten Runde ordnen wiederum vier Richter die verbliebenen Items einer Kategorie zu. In der dritten und vierten Runde wiederholen jeweils fünf Probanden pro Runde das Prozedere der ersten und zweiten Runde. Die

Abbildung 3: Izak Benbasat

Übereinstimmung der Richter liegt jeweils zwischen 78 (erste Runde) und 92 Prozent (zweite und vierte Runde). In Phase 3 werden die Skalen verfeinert und mit EFA und DA auf ihre Güte hin überprüft. Dazu kommt die Skala in insgesamt drei Umfragen zur Anwendung: zwei Pre-Tests (N 1 = 20, N 2 = 60) und einem Feldtest (N = 540). Sie erreicht sowohl in der EFA als auch in der DA gute Werte und erklärt 63 Prozent der Varianz bei den Befragten. In Tabelle 2 findet sich die zusammengefasste Bewertung des Artikels. Tabelle 2: Bewertung Moore & Benbasat

Daten

Methodische Sorgfalt

• Genug Varianz für Sorting • Zu wenig schreibung Samples

Bedes

• Allgemein hoch • Abstriche und EFA

für

DA

• keine Begründung Varimax-Rotation • Verwendete Software nicht angegeben

7

Messung

Dokumentation

• Entwicklung einer eigenen Skala

• Sauber und transparent

• Hohe Validität und Reliabilität

• Jeder Schritt der Skalenentwicklung dokumentiert

• Anpassung der Skala wo notwendig

7

8

• Tabellen z. T. unübersichtlich

9 Quelle: eigene Darstellung

5 Die

hier verwendete deutsche Übersetzung entspricht den englischen Originalbezeichnungen Relative Advantage, Complexity, Trialability, Observability und Compatibility; in dieser Reihenfolge

8


3

ARTIKELANALYSE

Aus den Einzelnoten und der Gewichtung ergibt sich eine Gesamtnote von 7.76 . Der Artikel ist gut bis sehr gut gelungen und intern konsistent, denn keines der Kriterien zeigt grosse Abweichungen von der Gesamtnote. Besonders lobenswert fällt die Dokumentation aus, an der es fast nicht auszusetzen gibt. In Bezug auf die Daten hätte eine etwas grössere Stichprobe für die ersten beiden SortingRunden vielleicht eine dritte und vierte Runde erspart. Es ist nicht ganz ersichtlich, wieso in den ersten beiden Runden jeweils vier „Richter“ das Sorting vornehmen, in den letzten beiden dagegen fünf - die Autoren geben keinerlei Begründung für diese Veränderung. Hoch anzurechnen ist ihnen jedoch, dass sie ein demographisch relativ breites Sample für das Sorting wählen und nicht auf die einfache Lösung verfallen nur Studenten zu berücksichtigen. Auch die methodische Sorgfalt ist hoch. Allerdings schildern Moore & Benbasat die DA zu wenig ausführlich. Da es sich nicht um einen integralen Bestandteil des Beitrags handelt, sondern nur um eine zusätzliche Erweiterung, hätten sie sie auch weglassen können oder zumindest besser begründen müssen. Was die Operationalisierung und Messung angeht, so sind reliable und valide Konstrukte ein Hauptziel und die Autoren räumen diesem Aspekt den gegebenen Stellenwert ein. Dies erstaunt nicht, schliesslich handelt es sich um ein Skalenentwicklungspaper. Nach den Modifikationen haben denn auch alle Konstrukte die gewünschten Cronbach’s α Werte. Einzig eine eingehende Überprüfung mittels konfirmatorischer Faktoranalyse hätte ihre Robustheit noch genauer ausgelotet.

3.2.2 Artikel 2: Venkatesh & Davis (2000) Dieser Artikel erschien 2000 in Management Science. Wie Tabelle 1 zeigt, wurde er seither zum Klassiker und bis heute tausende Male zitiert. Im Gegensatz zu Moore & Benbasat geht es Venkatesh & Davis nicht um die Entwicklung eines neuen Messinstruments, sondern um die Erweiterung eines bestehenden konzeptionellen Modells. Die Autoren erklären zunächst dieses etablierte Modell der Technologieakzeptanz, das Technology Acceptance Model (TAM; Davis, 1989). Seine Kernaussage lautet, dass Leute eine Technologie nutzen, wenn sie diese als einfach zu bedienen und nützlich wahrnehmen. Zahlreiche empirische Studien bestätigten den positiven Zusammenhang zwischen wahrgenommener Nützlichkeit (Perceived Usefulness - PU) einer Technologie und der Nutzungsabsicht sowie der endgültigen Nutzung (vgl. Chuttur, 2009 für einen Überblick). Für die wahrgenommene Einfachheit der Bedienung (Perceived Ease of Use - PEOU) ist die Evidenz weniger eindeutig: Manche Studien fanden einen positiven Effekt auf die Nutzungsabsicht und Nutzung, andere identifizierten dagegen keinen signifikanten Einfluss (ebd.). Das erweiterte Technology Acceptance Model (TAM2; siehe Abbildung 4), das Venkatesh & Davis formulieren und überprüfen, legt nun Determinanten von PU fest. Wie schon das ursprüngliche TAM, speist sich auch die erweiterte Version aus sozialpsychologischen Theorien. So umfasst subjective norm den Einfluss des sozialen Umfeldes auf PU. Neben den sozialen Determinanten spielen

6 Der

Wert berechnet sich im Sinne eines Erwartungswerts nach der Formel

N P i =1

g i w i . Das heisst jede Einzelnote (grade, g i )

wird mit der jeweiligen Gewichtung (weight, w i ) multipliziert und die daraus entstehenden Produkte werden aufaddiert. Für unser Beispiel ergibt sich: 0.2*7 + 0.3*7 + 0.3*8 + 0.2*9 = 1.4 + 2.1 + 2.4 + 1.8 = 7.7.

9


3

ARTIKELANALYSE

Abbildung 4: Überprüftes Modell für Artikel 2: Technology Acceptance Model 2 (Quelle: Venkatesh & Davis, 2000, S. 188)

auch kognitive unabhängige Variablen eine wichtige Rolle. Dieser Block umfasst die Konstrukte Jobrelevanz, Outputqualität, result demonstrability und PEOU. Er bezieht sich ebenfalls auf bestehende Theorien, z. B. die Motivationstheorie von Vroom (1964) und den situativen Ansatz (z. B. Beach & Mitchell, 1978). Daneben kommen mit „Erfahrung“ und „Freiwilligkeit“ (voluntariness) zwei Moderatoreffekte zum Tragen. Venkatesh & Davis überprüfen die Pfade mittels linearer Regression zu vier Zeitpunkten. Als Datenbasis dienen vier Organisationen, die neue IT-Systeme einführen. Die Modellgrössen wurden vor der Implementierung der IT-Systeme (T1) und einen (T2), drei (T3) sowie fünf Monate (T4) danach gemessen. Da sich die betrachteten Organisationen in unterschiedlichen Branchen betätigen und zwei davon die neuen Technologien als verpflichtend einführen und zwei davon als freiwillig, ist eine hohe Varianz an verschiedenen Szenarien gegeben. Das heisst die Datenlage lässt auch verallgemeinerbare Schlüsse zu. Insgesamt bestätigen sich die postulierten Effekte und alle Pfade weisen in die von den Hypothesen geforderte Richtung. Die unabhängigen und neu berücksichtigen Konstrukte erklären in den vier Organisationen und über drei Zeitpunkte (T1, T2, T3) hinweg zwischen 40 und 60 Prozent der Varianz in PU. In der Nutzungsabsicht der Befragten findet zwischen 34 und 52 Prozent Varianzaufklärung statt. Tabelle 3 zeigt die Beurteilung des Forschungsmethoden. Alles in allem gelingt es den Autoren gut, die theoretische Absicht mit einer passenden empirischen Methode zu verknüpfen. Die Ausarbeitung des Beitrags genügt den Ansprüchen und die strukturierte und angemessen illustrierte Darstellung sorgt für hohen Lesefluss. Auch die Methodenwahl ist angebracht, wird aber nicht eingehend reflektiert: Bei der verwendeten linearen Regression handelt es

10


3

ARTIKELANALYSE

Tabelle 3: Bewertung Venkatesh & Davis

Daten

Methodische Sorgfalt

• Ok für Zweck, aber kleines N

• Genügend, aber Luft nach oben

• Rückgriff auf währte Skalen

• Beschreibung Sample schwach

• Kaum deskriptive Statistiken

• Sehr hohe Reliabilität und Validität (alle Alphas » 0.8)

• Keine Voraussetzungsprüfungen

6

Messung

Dokumentation be-

• Umfassend: kompletter Fragebogen im Anhang • Modell gut dargestellt

• Keine Verwendung konfirmatorischer Gütemasse (C.R., AVE)

• Kleinere Abstriche für EFA (keine extrahierte Varianz deklariert)

9

8

6

Quelle: eigene Darstellung

sich allerdings um ein Verfahren, das in den Sozialwissenschaften standardmässig zu Anwendung kommt und das viele Leserinnen kennen. Deshalb fällt die fehlende Begründung kaum ins Gewicht. Besonders hoch anzurechnen ist die Verwendung von Längsschnittdaten, denn nur diese erlauben eine adäquate Überprüfung des Modells. Es lässt sich aber im Anschluss fragen, wieso kein Paneldesign verwendet wurde, denn die Datenlage hätte dies durchaus erlaubt. Weitere Minuspunkte sind die dünne Datenbasis (jeweils nur zwischen 30 und 40 Personen pro Organisation gaben zu allen Zeitpunkten vollständige Antworten - das absolute Minimum für eine Regression), deren zu kurze Beschreibung, das Fehlen von Voraussetzungsprüfungen und die Nichtangabe, welche Software verwendet wurde. Was die methodische Sorgfalt angeht, besteht also durchaus noch Luft nach oben. Die gewichtete Durchschnittsnote beträgt 7.3 und liegt damit leicht unter der von Moore & Benbasat. Es handelt sich um einen methodisch soliden Artikel mit kleineren Schwächen, die aber in Anbetracht des Primärziels (Erweiterung von TAM zu TAM2 und Überprüfung) nicht stark ins Gewicht fallen. Insgesamt verdienen die Autoren das Prädikat gut.

3.2.3 Artikel 3: Purvis, Sambamurthy & Zmud (2001) Dieser Artikel beschäftigt sich mit der Assimilation von Wissensplattformen in Unternehmen. Dabei handelt es sich um IT-Technologien, welche die Speicherung und Verarbeitung von Wissen in grossen Organisationen ermöglichen. Damit sollen Wissensplattformen, wie z. B. das im Artikel behandelte CASE, Systementwicklungsprozesse erleichtern. Die Autoren präsentieren ein Modell zur Erklärung der CASE-Assimilation, das sich aus drei Theorien speisst: dem Institutionalismus, dem knowledge-based view of the firm und Ansätzen der Techno-

11


3

ARTIKELANALYSE

Abbildung 5: Russell L. Purvis, Vallabh Sambamurthy und Robert W. Zmud

logieakzeptanz und -adoption. Im Vergleich zu den vorigen Artikeln gehen sie stärker auf theoretische Aspekte ein und leiten ihre Hypothesen dezidiert aus den genannten Theorien ab. Aus der Diskussion entsteht das in Abbildung 6 gezeigte Modell, welches mittels Strukturgleichungsmodellierung überprüft wird. Die Grössen des Modells lassen sich in zwei Blöcke unterteilen: meta-strukturierende Handlungen und Methodologieeinfluss. Während die Wissenseinbettung – d. h. der Grad an Kodifizierung und Speicherung von bestehendem organisatorischen Wissen in CASE – zu ersterem gehört, umfassen derzeitige und vergangene Methodologien sowie die Passung bisheriger Systeme mit der neuen Technologie den Block „Methodologieeinfluss“.

Abbildung 6: Überprüftes Modell für Artikel 3 (Quelle: Purvis et al., 2001, S. 122)

Im Zuge der Modellpräsentation formulieren die Autoren sechs Hypothesen, welche die Pfade und die Effektrichtungen angeben. Im Zentrum steht dabei Hypothese 1: „Higher levels of knowledge embeddedness will positively influence the assmilation of CASE knowledge platforms.“ (ebd., S. 122) Die übrigen Hypothesen beziehen sich auf den Methodologieeinfluss-Block (H2-H4) oder den Einfluss der Managementunterstützung auf die Wissenseinbettung (H5) und die derzeitige Methodolo-

12


3

ARTIKELANALYSE

gie (H6). Bis auf H2 sind alle geforderten Zusammenhänge positiv. Alle Hypothesen bestätigen sich in der empirischen Überprüfung und sind mindestens auf 5-Prozent Niveau signifikant. Die Beurteilung zeigt einige Defizite im Forschungsdesign auf. Im Vergleich zu den bisherigen Artikeln schneiden Purvis, Sambamurthy und Zmud deshalb schlechter ab und erreichen nur die Gesamtnote 6.0. Besonders problematisch ist die Messung, denn die Operationalisierung des zentralen Konstrukts „Wissenseinbettung“ erweist sich als unbefriedigend. Zwar leiten die Autoren adhoc eine Skala her und überprüfen diese kurz, es fehlen allerdings wesentliche Informationen, z. B. zur Reliabilität der ursprünglichen Skala und zum Ausschluss von acht Items. Auch die Dokumentation gelingt nicht optimal. Leider verknüpfen Purvis et al. die Darstellung des zentralen Modells nicht mit den Hypothesen, d. h. die Effektrichtungen sind nicht in die Grafik eingetragen, was den Lesefluss erschwert7 . In einer Tabelle zur Überprüfung der Diskriminanzvalidität fehlen χ 2 -Werte, auf die im Text referiert wird – ein eher ungewöhnlicher Lapsus für einen Top-Journal Beitrag (S. 127, Tabelle 3b). Noch ein Flüchtigkeitsfehler findet sich in einer Tabelle mit den Korrelationen der Konstrukte untereinander (S. 129, Tabelle 4b): Hier schreiben die Autoren im Titel in Klammern „needs to be redone“, was auf eine Entwurfsfassung der Publikation hindeutet, die vorschnell veröffentlicht wurde. Tabelle 4: Bewertung Purvis, Sambamurthy & Zmud

Daten

Methodische Sorgfalt

Messung

Dokumentation

• Eher kleines N

• Gut

• Problematisch

• Mittelmässig

• Beschreibung des Samples etwas zu knapp

• Erklärung PLS

• Teilweise Feheler

• Formatives begründet

• Teilweise Schwellenwerte überschritten

• Fragebogen im Anhang

Modell

• Verwendete Software nicht angegeben

6

• Bewährte Skalen ok, neue mit Problemen

8

4

• Messmodell einheitlich mentiert

nicht doku-

• Grafiken klein und Effektrichtungen nicht eingezeichnet 6 Quelle: eigene Darstellung

Im Gegenzug lassen die Autoren die nötige methodische Sorgfalt walten: Sie wählen eine angebrachte Methode und begründen v. a. warum sie ein formatives und nicht ein reflexives Messmodell verwenden - ein in der Strukturgleichungsmodellierung zu selten thematisierter Aspekt (Diamantopolous & Winklhofer, 2001; Eberl, 2004). Auch die sonstige Durchführung der methodisch notwendigen Schritte geschieht sicher und auf der Höhe der Zeit. Kritisieren muss man, wie bei allen Artikeln, dass die 7 Fairerweise

muss man sagen, dass dies bei Venkatesh & Davis auch so ist.

13


3

ARTIKELANALYSE

verwendete Software nicht genannt wird. Des Weiteren liegt der RMSEA-Wert des Messmodells mit 0.06 über der in der Literatur üblichen Schwelle von 0.05 (Hu & Bentler, 1999). Für die Validitätsprüfungen fehlen für die Konvergenzvalidität die sonst oft verwendeten Kriterien der durchschnittlich extrahierten Varianz (AVE) und Faktorreliabilität (C. R.) und für die Diskriminanzvalidität fallen die vergessenen χ 2 -Werte besonders ins Gewicht, da der Leser nicht nachvollziehen kann, ob das Kriterium erfüllt ist. Schliesslich überzeugen auch die Daten nicht vollständig: Mit N=176 – und im reduzierten Datensatz nur N=124 – reicht die Stichprobe zwar für ein Strukturgleichungsmodell, allerdings hätten die Autoren die fehlenden Werte (Rücklaufquote 39 Prozent, briefliche Befragung) stärker thematisieren und den Kontext der Datenerhebung ausführlicher beschreiben sollen.

3.2.4 Artikel 4: Pan & Jang (2008) Hier überprüfen die Autoren den Technology-Organization-Environment (TOE) Framework an der Adoption von Enterprise Resource Planning (ERP) Systemen in der taiwanischen Kommunikationsindustrie. Tornatzky & Fleischer (1990) prägten den TOE-Ansatz, dessen Primärziel die Erklärung der Adoption neuer Technologien in Organisationen ist. Seine Grundannahme besagt, dass dabei drei Erklärungsfaktoren zusammenspielen: Eigenschaften der Technologie, der Organisation und der Umwelt. Verschiedene Studien bestätigten TOE an unterschiedlichen Informationssystemen, wie EDI, offenen Systemen oder E-Business (siehe Pan & Jang, 2008, S. 95 für einen Überblick). Pan & Jang leiten nun für jeden der drei Faktoren mehrere Subkonstrukte ab, welche die ERP-Adoption erklären sollen. Abbildung 7 zeigt das zentrale Modell des Papers.

Abbildung 7: Überprüftes Modell für Artikel 4 (Quelle: Pan & Jang, 2008, S. 96)

Da es sich um eine binäre abhängige Variable handelt (ERP Adoption: Ja - Nein), werden die Kausaleinflüsse mittels logistischer Regression getestet. Zuvor aber bündeln Pan & Jang die Konstrukte mittels EFA. Von den acht getesteten Einflussgrössen erweisen sich vier als signifikant, nämlich Tech-

14


3

ARTIKELANALYSE

nologiebereitschaft, Grösse, wahrgenommene Hürden und Produktionsverbesserungen. Der organisatorische Kontext ist damit der stärkste Prädiktor für ERP-Adoption, während aus dem Umweltkontext und dem technologischen Kontext nur partielle Einflüsse kommen. Tabelle 5 fasst Stärken und Schwächen in den Forschungsmethoden zusammen. Wie man sieht, bestehen einige Probleme, die teilweise, aber nicht ausschliesslich, auf die Kürze des Artikels zurückzuführen sind. Denn mit acht Seiten ist der Beitrag deutlich komprimierter als die übrigen Texte und kann deshalb nicht die gleiche inhaltliche Tiefe erreichen wie z. B. Moore & Benbasat mit 30 Seiten. Trotzdem sind die meisten Kritikpunkte generischer Natur und eher in der fehlenden Gründlichkeit als im Platzmangel zu suchen. Im Gegensatz zu den bisher betrachteten Artikel, lassen Pan & Jang die methodische Sorgfalt teilweise vermissen: Für die logistische Regression führen sie keine Voraussetzungsprüfungen durch und geben vor allem keine Odds Ratios an, was die Interpretation deutlich erleichtert hätte. Die Qualität der EFA ist schwierig zu beurteilen, weil KMO-Werte oder sonstige Gütekriterien fehlen. Auch über Kreuzladungen und deren Unterdrückung finden die Leser keinerlei Informationen. Ähnlich grosse Unzulänglichkeiten sind in der Operationalisierung zu vermerken: Obwohl die Cronbach’s α Werte im Toleranzbereich liegen, fehlen auch hier konfirmatorische Gütekriterien, wie C. R. und AVE. Deshalb kommt der Beitrag mit einer Gesamtnote von 5.5 nicht an die bisherigen Artikel heran und schneidet am schlechtesten ab. Tabelle 5: Bewertung Pan & Jang

Daten

Methodische Sorgfalt

Messung

• Sehr dünn für Studie (N=99)

• Luft nach oben, da keine Voraussetzungsprüfungen und Odds Ratios logistische Regression

• Herleitung Items ungenügend: keine Quellen oder Begründungen

• Gute bung

Beschrei-

• Externe Validität fraglich

• KMO für EFA nicht dokumentiert • Verwendete Software nicht angegeben

5

Dokumentation • In Ordnung • Keine kompakte Darstellung des Fragebogens

• Reliabilität ok, aber keine konfirmatorischen Kriterien (C. R., AVE)

• Etwas knapp aufgrund geringer Seitenzahl

5

6

6

Quelle: eigene Darstellung

Besonders zu kritisieren sind die Datenlage und die Messung: Mit einer Fallzahl von 99 Personen und einer Rücklaufquote von 31 Prozent ist die externe Validität zweifelhaft. Wie bei Purvis et al. fehlen auch hier wesentliche Angaben zur Systematik der Nichtteilnehmer. Positiv hervorheben muss man die Durchführung der Interviews als Face-to-Face Gespräche. Dies erlaubt die unmittelbare Rücksprache bei Problemen und Fragen (Diekmann, 2004, S. 399), womit die interne Validität höher liegen

15


3

ARTIKELANALYSE

dürfte als bei Purvis et al., die eine briefliche Befragung durchführen. Bei der Messung fehlen allerdings zentrale Informationen zu den verwendeten Skalen: Weder Quellenangaben noch Informationen zur Entwicklung finden sich im Text und die Leserinnen bleiben damit völlig im Dunkeln, wieso gerade diese Fragen verwendet wurden und nicht andere. Die Autoren weisen lediglich darauf hin, dass die Fragen auf einer Likert-Skala mit 7 Punkten gemessen sind. Die transparente Offenlegung aller Fragen und v. a. Quellen hätte die Qualität – und damit die Punktzahl – hier deutlich erhöht. Für die Forschungslandschaft handelt es sich nicht um einen grundlegenden, sondern höchstens inkrementellen Beitrag, der weder theoretisch noch empirisch Neuland betritt. Deshalb erstaunt auch die geringe Zitationshäufigkeit nicht. Insgesamt haben wir es mit einem mittelmässigen Artikel zu tun, der einiges Verbesserungspotential hat.

3.2.5 Artikel 5: Goldenberg, Han, Lehmann & Hong (2009) Goldenberg, Han, Lehmann und Hong behandeln in diesem Journal of Marketing Artikel ein aktuelles und wichtiges Thema: den Stellenwert von Hubs im Adoptions- und Diffusionsprozess. Hubs sind Personen mit überproportional vielen Verbindungen und in der Netzwerktheorie spielen sie eine zentrale Rolle. Weil die empirische Verteilung von Verbindungen (degree distribution) in grossen sozialen, aber auch anderen, Netzwerken häufig skalenfrei ist, vereinigt eine kleine Zahl von Personen eine riesige Anzahl Verbindungen auf sich und kann grossen Einfluss ausüben (Barabasi, 2003). Auf Social Network Sites sind Hubs beispielsweise Individuen mit tausenden Followern (Twitter) oder Freunden (Facebook). Für Marketingzwecke kann die Identifizierung und Erreichung von Hubs ein entscheidender Wettbewerbsvorteil sein. Bislang wurde aber kaum erforscht, welche Rolle sie bei der Diffusion von Innovationen spielen. Goldenberg und seine Kollegen setzen hier an und möchten herausfinden, ob Hubs neue Technologien früher adoptieren als weniger Vernetzte. Des Weiteren untersuchen sie ihre Rolle im Diffusionsprozess, d. h. sie fragen, ob Hubs den Diffusionsprozess beschleunigen oder hemmen. Sie stützen sich auf Daten der koreanischen Social Network Site Cyworld und haben Tracking-Informationen für das gesamte Netzwerk im Zeitraum von Dezember 2003 bis Juli 2005. Am Ende des Beobachtungszeitraums umfasst die Fallzahl 12’685’214 Profile. Zur Beantwortung der Forschungsfragen verwenden die Autoren Methoden der logistischen Regression und Agent-based Models. Als Hub definieren sie Profile mit mindestens drei Standardabweichungen an Verbindungen über dem Durchschnitt, der für die betrachteten Zeitpunkte zwischen knapp 14 und 21 Verbindungen liegt. Die empirische Analyse zeigt, dass Hubs Produkte tatsächlich früher adoptieren als Nonhubs. Dies erklärt sich

Abbildung 8: Jacob Goldenberg

aber nicht aus ihrer besonders hohen Innovativität, sondern durch ihr grosses Netzwerk, dank dem sie viel früher Kontakt mit dem neuen Produkt haben. „Thus, hubs appear to adopt early more because of their large number of connections (contacts) rather than their

16


3

ARTIKELANALYSE

innate innovativeness.“ (Goldenberg et al., 2009, S. 6). Weitere Erkenntnisse sind: Hubs beschleunigen den Diffusionsprozess, tragen entscheidend zum Markterfolg von Produkten bei und sind eher jung und männlich als älter und weiblich. Tabelle 6 gibt einen Überblick über die Bewertung des Artikels. Tabelle 6: Bewertung Goldenberg, Han, Lehmann & Hong

Daten

Methodische Sorgfalt

Messung

Dokumentation

• Extrem grosser und attraktiver Datensatz

• Relativ hoch, aber logistische Regression lückenhaft

• Längsschnittinformationen

• Arbiträre Seeds für Agent Based Models

• Schwächen aufgrund nicht massgeschneiderter Metriken

• Angemessen, aber schwierig einem so grossen Datensatz gerecht zu werden

• Externe fraglich

• Dynamik fast nicht darstellbar

• Verwendete Software nicht angegeben

10

Validität

• Vom Ablauf „wirr“

7

5

her

8 Quelle: eigene Darstellung

Insgesamt handelt es sich um einen gelungenen Beitrag, der die Gesamtnote 7.2 erreicht. Er hat die Forschung im Bereich Netzwerkmarketing vorangebracht und wird seit dem Erscheinen häufig zitiert. Seine Stärken sind insbesondere im einmaligen Datensatz zu finden, aber auch das methodische Vorgehen und die Dokumentation gelingen gut. Schwachpunkte hat der Artikel hingegen bei der Operationalisierung. So muss seine externe Validität angezweifelt werden, denn die Übertragung des spezifischen Mikrokosmos einer koreanischen SNS auf andere Produkte und Lebenswelten ist mehr als fraglich. Die Operationalisierung der Produktadoption findet in Form so genannter Scrapes statt, d. h. kleinen kaufbaren Items auf der Plattform. Ob sich die selben Netzwerk- und Adoptionseffekte auch bei anderen, weit kostspieligeren und tangibleren Gütern zeigen, lässt sich bezweifeln. Somit erweist sich die grösste Stärke des Papers auch als seine grösste Schwäche. Denn obwohl der Datensatz dank seiner Reichhaltigkeit und Grösse die Beantwortung bislang kaum erforschter sozialer Netzwerkeffekte zulässt, sind die Daten für Marketingforschungszwecke nur bedingt geeignet. Gelegentlich drängt sich das Gefühl auf, die Autoren suchen verzweifelt nach einer passenden Theorie und Forschungsfrage für den Datensatz. Zugegebenermassen ist es schwierig, der Dynamik und Reichhaltigkeit einer so mächtigen Datenbasis im Rahmen eines kurzen Beitrags gerecht zu werden und v. a. die Veränderungen über die Zeit hinweg auf Papierform ansprechend darzustellen. Was die methodische Vorgehensweise betrifft, so sind die Autoren sorgfältig. Gelegentlich fehlt wie bei den bisher analysierten Texten auch die genaue-

17


3

ARTIKELANALYSE

re kontextuelle Einordnung des Forschungsdesigns: Wie unterscheidet sich das koreanische soziale Netzwerk von anderen SNS? Wie genau sieht der „Markt“ für Scrapes aus? Auch deskriptive Statistiken oder eine einfache grafische Verteilung der Hubs vs. Non-Hubs hätte dem Artikel gut getan und den Zugang erleichtert. Einen weiteren Kritikpunkt in der Dokumentation sehe ich in der ungenügenden Verknüpfung der Hypothesen mit den Ergebnissen. Die Autoren formulieren fünf Hypothesen, aber im Laufe des Resultate- und Diskussionsteils stellen sie die Verknüpfung zu den Hypothesen zu wenig her. Es fehlt z. B. im Titel oder Text eine klare Referenz zur gerade behandelten Hypothese und auch die spezifische Bestätigung oder Widerlegung wird zu wenig klar erläutert. Eine Übersicht am Schluss, welche Hypothese wie stark bestätigt oder verworfen werden musste, hätte ebenfalls zum besseren Verständnis beigetragen.

3.2.6 Artikel 6: Iyengar, van den Bulte & Valente (2011) Iyengar, van den Bulte & Valente schlagen in diesem Artikel eine ähnliche Richtung ein wie Goldenberg et al. (2009). Auch hier geht es um Netzwerkmarketing und die Rolle von einflussreichen Personen im Adoptions- und Diffusionsprozess. Es handelt sich also um einen Beitrag, der dem weiten Paradigma der sozialen Netzwerkanalyse (Borgatti et al., 2009; Scott & Carrington, 2011; Wasserman & Faust, 1994) zuzuordnen ist und Grundannahmen sowie Methoden daraus verwendet. Die wichtigsten zwei Annahmen, von denen auch der Artikel ausgeht, lauten: Ansteckungseffekte sind möglich und die sozialen Verbindungen sind asymmetrisch skalenfrei verteilt. Im Anschluss untersuchen die Autoren, ob soziometrische Meinungsführerschaft mit selbst eingeschätzter Meinungsführerschaft einhergeht8 , ob Hubs (im Artikel ist von Meinungsführern - opinion leaders - die Rede) tatsächlich mehr Einfluss ausüben als schlechter Vernetzte und ob Ansteckung eher von der Nutzungsintensität statt bloss von der binären Nutzung-Nichtnutzung ausgeht. Allerdings unterscheidet sich die Datenbasis fundamental vom vorherigen Beitrag von Goldenberg et al. (2009). Zur Verwendung kommen drei Datenquellen im Kontext der Markteinführung eines neuen, verschreibungspflichtigen Medikaments: Verschreibungsdaten9 , Verkaufsdaten10 und ein umfassender Fragebogen bei den Ärzten mit Netzwerk- sowie demographischen Angaben. Die Untersuchungseinheiten sind also Ärzte, die das neue Medikament entweder verschreiben oder nicht. Insgesamt beträgt die Datenbasis 193 Mediziner in drei US-Städten (New York, Los Angeles und San Francisco) und einer durchschnittlichen Rücklaufquote von 31

Abbildung 9: Raghuram Iyengar

Prozent. Die Ärzte beantworteten die Fragen mit einem Online8 Hier

geht es also spezifisch um die Frage, ob die Selbsteinschätzung bezüglich des persönlichen Einflusses im sozialen Netzwerk mit der Fremdeinschätzung übereinstimmt 9 Die Autoren erhalten diese von einem Marktforschungsunternehmen im Pharmabereich. 10 Die Autoren arbeiten mit dem Hersteller des Medikaments zusammen und erhalten die detaillierten Verkaufsdaten. Im Gegenzug nützen die Netzwerk- und allgemeinen Fragebogeninformationen aus der Erhebung dem Hersteller beim gezielteren Targeting und Marketing für das Medikament.

18


3

ARTIKELANALYSE

Fragebogen und erhielten dafür 75 US-Dollar als Belohnung. Wie definieren die Autoren Hubs oder Meinungsführer? Auf zwei Arten: soziometrisch und mit Selbsteinschätzung. Für die soziometrische Messung wurden die Ärzte gebeten bis zu acht Berufskollegen zu nennen, mit denen sie sich regelmässig austauschen (Diskussion) und an die sie Patienten mit der neuen Krankheit verweisen (Empfehlung). Die indegree centrality, also die durchschnittliche Anzahl an Nennungen eines Arztes dient als soziometrische Operationalisierung der Meinungsführerschaft. Für die Selbsteinschätzung füllten die Befragten eine bewährte und leicht modifizierte Skala mit sechs Items aus11 . In der empirischen Analyse korrelieren die soziometrische und selbsteingeschätzte Meinungsführerschaft nur schwach, d. h. die Selbstangaben decken sich nicht mit den Fremdangaben. Für das neue Medikament sind Meinungsführer wichtig bei der Verbreitung: Mittels Survival Analysis zeigen die Autoren, dass erhöhte Meinungführerschaft zu einer früheren Verschreibung des Medikaments führt. Ansteckungseffekte sind auch bei der Kontrolle der Marketingausgaben sichtbar und eher vom Verschreibungsvolumen der Akteure abhängig als von der binären Tatsache „Verschreibung - Nichtverschreibung“. In Tabelle 7 ist die detaillierte Bewertung des Artikels ersichtlich. Tabelle 7: Bewertung Iyengar, van den Bulte & Valente

Daten • Sehr vielfältig und reichhaltig • Geringe Fallzahl (N=193) und tiefe Rücklaufquote (31%) für Fragestellung 7

Methodische Sorgfalt • Hoch • Mean-centering erleichtert Interpretation

Messung • Hohe Reliabilität der self-reported leadership Skala

Dokumentation • Gut gelöst • Sehr detaillierte deskriptive Statistiken

• Verwendete Software nicht angegeben

• Sinnvolle Unterscheidung in adoption, use und volume contagion

• Survival Analysis eher oberflächlich erklärt

9

8

8 Quelle: eigene Darstellung

Der Artikel erreicht eine Gesamtnote von 8.1. Es handelt sich um einen sehr ausgeglichenen und qualitativ hochstehenden Beitrag. Im Vergleich zum vorigen Artikel von Goldenberg et al. (2009) mit ähnlichem Thema gelingt es den Autoren besser den Lesern den Kontext der Datenerhebung und die Operationalisierung transparent zu machen. Somit ist ein umfassenderes Verständnis für die (Nicht)Übertragbarkeit auf andere Phänomene gegeben. Die Autoren agieren methodisch sicher auf der Klaviatur der verwendeten Verfahren: Sowohl die Survival Analysis als auch die eher deskriptiven und korrelativen Analysen sind passend umgesetzt. Ein Online-Anhang ergänzt das Paper und enthält nützliche Zusatzinformationen: Dieses Element fehlt bei den anderen Artikeln, weshalb Iyengar 11 Ein

Beispielitem lautet: „Compared to your circle of colleagues, how likely are you to be asked about ways to treat?“ Alle Antworten wurden mit einer 7-Punkt Likert Skala gemessen.

19


3

ARTIKELANALYSE

et al. hier besonders punkten können. Ungewöhnlich ist der Ablauf, da die Gliederung nicht dem standardmässigen Approach sonstiger Journal-Beiträge folgt, sondern sich mehr Freiheiten heraus nimmt und elf Kapitel umfasst. In Anbetracht der Datenlage und Forschungsfragen ist dies aber angebracht und erhöht die Übersicht. Kritikpunkte sind bei den Daten zu vermerken. So fällt die Rücklaufquote tief aus, was die externe Validität gefährdet. Erfreulicherweise widmen die Autoren diesem Problem genügend Raum und wissen es mit einer Nonresponse Analyse (S.205) teilweise zu entschärfen. Die Methodenwahl kommt dagegen kaum zur Sprache, d. h. die Autoren erklären zu wenig, wieso sie das Verfahren der Survival Analysis gewählt haben. Auch eine ausführlichere Erklärung dieser Methode für nicht versierte Lesende hätte gut getan, denn im Marketing-Bereich handelt es sich noch nicht um ein standardmässig verwendetes und unterrichtetes Verfahren, obwohl es in den letzten Jahren immer wichtiger wurde und auch zukünftig an Relevanz gewinnen wird (Kaiser et al., 2007). So setzen Iyengar et al. die Latte bei den Lesern etwas (zu) hoch. Dass der Beitrag in Marketing Science, einem stark empirisch ausgerichteten Journal erschien, rechtfertigt dies aber teilweise. Insgesamt ist dieser neueste Artikel auch der beste. Den Autoren gelingt es besonders gut, wichtige offene Fragen mit einem klug gewählten und korrekt umgesetzten Forschungsdesign zu beantworten.

3.2.7 Zusammenfassung der Analyse Eine umfassende Würdigung - samt Foto für jeden Artikel! - findet im Anhang in Abbildung 10 und Tabelle 8 statt. Hier möchte ich nur die besten drei Beiträge gebührend erwähnen. Gold geht an das Paper von Iyengar et al. (2011) mit einer Note von 8.1, dicht gefolgt bekommen Moore & Benbasat (1991) Silber mit 7.8 Punkten und Venkatesh & Davis (2001) erarbeiten sich einen verdienten Bronzeplatz mit 7.3 Zählern. Diesen drei Artikeln ist ein sauberes methodisches Vorgehen und eine hohe interne Konsistenz gemein. Darüberhinaus haben sie aber auch theoretisch wertvolle Inputs geliefert und den wissenschaftlichen Diskurs in ihrem jeweiligen Feld belebt. Die Kombination aus theoretischer Anschlussfähigkeit, methodischer Strenge und einem klar identifizierbaren Erkenntnisbeitrag zeichnet die Beiträge aus. Sie sind damit exzellente Beispiele für ein gelungenes Forschungsdesign und können jedem Nachwuchswissenschaftler, der sich im Bereich Technologieakzeptanz und -adoption bewegt, nachhaltig empfohlen werden.

20


4

LERNEFFEKTE

4 Lerneffekte Für mein eigenes Dissertationsvorhaben waren sowohl das Seminar in Gais und die dortigen Diskussionen als auch das Schreiben der Arbeit mit grossen Erkenntnisgewinnen verbunden. Im Folgenden sammle und reflektiere ich die Erkenntnisse und versuche von den konkreten Erfahrungen zu abstrahieren. Die sorgfältige Analyse und Bewertung der Artikel liess mich Details sehen, die beim sonstigen Lesen untergehen. Normalerweise lese ich relativ oberflächlich und „überfliegend“. Erst die gründliche, analytische Lektüre erlaubt jedoch eine fundierte Kritik der Artikel. Für meine eigene Dissertation werde ich einen Mix aus gründlicher und oberflächlicher Lektüre finden müssen: Die zentralen Texte zum Thema versuche ich, ähnlich wie die hier analysierten, mit grosser Sorgfalt zu ergründen. Die peripheren Texte dagegen werde ich eher überfliegend anschauen und die wichtigsten Erkenntnisse anhand der Eckpfeiler herausziehen – von denen die Forschungsmethoden auf jeden Fall einer sind. In Bezug auf die Methoden und Daten, stellte ich eine deutliche Komplexitätssteigerung über die Zeit hinweg fest. Die neueren Artikel, besonders aus den Marketing-Publikationen, arbeiten mit viel grösseren (Goldenberg et al., 2009) oder viel detaillierteren Datensätzen (Iyengar et al., 2011) als die älteren. Sie verwenden z. T. rechenintensive Verfahren, die vor 20 Jahren nicht möglich gewesen wären. Die Kombination verschiedener Methoden auf engem Raum fällt auch in diesen Entwicklungszusammenhang: Obwohl alle Beiträge mehrere Verfahren verwenden, ist hier auch eine erhöhte Tendenz mit der Zeit zu vermerken. Mir scheint, dass die Datenbasis heute ein entscheidendes Kriterium zur Publikation in einem Top-Journal ist. Besonders gute Chancen haben komplexere Designs, die über gewöhnliche Querschnitts- und Individualangaben hinausgehen: Paneldaten, Netzwerkdaten, Tracking-Daten – sei es aus Experimenten oder von sozialen Netzwerken und IT-Systemen–, sensible Unternehmensdaten, Mehrebenendaten etc. oder eine Kombination dieser Typen. Geht diese Komplexitätssteigerung mit einer grossen Methodenpluralität einher? Ja und nein. Zwar gibt es eine grosse Bandbreite an quantitativen Methoden, die in Top-Journals publiziert werden. Bei der Artikelauswahl – und auch vorher schon – stellte ich jedoch fest, dass die Methoden gewissen Trends unterliegen. Strukturgleichungsmodelle und allgemein konfirmatorische Verfahren wie die lineare und logistische Regression dominieren klar. Es war gar nicht so leicht, Beispiele für eher explorative und innovative Methoden, wie die Survival Analysis und Agent-based Models, zu finden. Aber genau diese neuen, innovativen und kreativen methodischen Zugänge machen ein exzellentes Paper aus. Oder mit anderen Worten: „[...] some papers are interesting precisely because their methods are so different from the ubiquitous secondary data sets, attitude surveys, and interviews of top managers that provide most of the grist for our field. Particularly interesting to me are methods that get close enough to behavior to show how people wittingly or unwittingly build and maintain their social worlds“ (Barley, 2006, S. 17). Von den betrachteten Artikeln entsprechen die beiden neuesten am ehesten diesem Ideal. Sie verwenden Netzwerkdaten und Tracking-Informationen und bringen damit Alltags- und Lebensnähe. Ferner beruhigte mich das Fehlen einiger Aspekte oder die unvollständige Dokumentation in ge-

21


4

LERNEFFEKTE

wissen Fällen, besonders bei den Beiträgen von Purvis et al. (2001) und Venkatesh & Davis (2000). Auch gestandene und renommierte Wissenschaftler vergessen manchmal etwas oder sind nachlässig beim Schreiben. So hat keiner der besprochenen Artikel die Software für die Datenanalyse genannt. Auch ist die deskriptive Präsentation nicht immer gut gelungen und der Forschungskontext bekommt nicht die nötige Tiefe in der Beschreibung und Reflexion zugetragen. Eine letzte wichtige Erkenntnis aus dem Vergleich lautet: Die neuen Artikel sind nicht zwangsweise besser als die alten. So kann das klassische Skalenentwicklungspaper von Moore & Benbasat von der Qualität mit den beiden Marketing-Artikeln mithalten, ist meiner Meinung nach besser geschrieben und hat in seinem Bereich ein bestehendes Problem hervorragend gelöst. Von der wissenschaftlichen Relevanz und Anschlussfähigkeit ist dieser Artikel darum wohl der beste. Übertrage ich die hier gezogenen Schlüsse auf mein eigenes Dissertationsprojekt, so möchte ich mich an den Artikeln im Guten orientieren. Im Schlechten werde ich versuchen die kleineren Unachtsamkeiten zu umgehen und das Fehlen bestimmter Dinge zu adressieren. Der Vergleich hat z. B. gezeigt, wie wichtig eine klare und nachvollziehbare Dokumentation sowohl der Methoden als auch der Ergebnisse ist. Die Auswahl der richtigen Methode spielt dabei ebenso eine Rolle wie die sorgfältige kontextspezifische Präsentation der Daten (deskriptive Statistiken) und die genaue Darlegung des methodischen Vorgehens und der Messung. In kaum einem der Artikel haben die Autoren ausreichend begründet, wieso sie genau diese Methode anwenden, d. h. die nötige Reflexion der Methodenwahl fehlt oder fällt unvollständig aus. Dies ist eine wichtige lesson learned und gibt direkte Handlungsanleitungen für die eigene Dissertation: Im Sinne der Reproduzierbarkeit der Forschung werde ich mich bemühen – im Rahmen der Möglichkeiten – den kompletten Forschungsprozess transparent zu halten, indem ich beispielsweise die Syntax für die Analysen bereit stelle oder die Datensammlung, inkl. Non-response Mustern und Missing Values, ausführlich schildere. Auch die Veröffentlichung der Dissertation im Sinne des open access Prinzips fällt in diesen Rahmen, denn das Thema „Verwaltung 2.0“ eignet sich dazu hervorragend. Die gute Methode – und Absicht – allein macht allerdings noch kein gutes Paper, geschweige denn eine gute Dissertation. Wie wir im Seminar ausführlich diskutiert haben, spielen andere Aspekte wie die Forschungsfrage oder die sinnvolle Konzeption eine mindestens so tragende Rolle (Dyllick, 2012). Trotzdem: Wenn die methodische Sorgfalt fehlt, verlieren die empirischen Ergebnisse jegliche Aussagekraft und sinnvolle Schlussfolgerungen sind nicht mehr möglich. Deshalb sollte den Forschungsmethoden, diesen Werkzeugen der Wissenschaft, stets die gebührende Reflexion und „Pflege“ zukommen. Die Bewertung hat auch gezeigt, dass es den methodisch perfekten Artikel nicht gibt: Diese zentrale Erkenntnis beruhigt mich einerseits und spornt mich andererseits an, dem Idealtypus möglichst nah zu kommen.

22


5

SCHLUSS

5 Schluss In dieser Arbeit habe ich sechs dissertationsrelevante Artikel auf ihr Forschungsdesign hin beurteilt und verglichen. Die methodische Qualität war allgemein hoch, variierte aber auch innerhalb von Topjournals beträchtlich. Alle Beiträge erschienen in unterschiedlichen Zeitschriften und sind verschiedenen Forschungsrichtungen – insbesondere Wirtschaftsinformatik vs. Marketing –, Theorielinien und methodischen Paradigmen zuzuordnen. Allerdings spiegelte sich die inhaltliche Varianz nur teilweise in der methodischen und formellen Varianz wieder, denn vom Ablauf und grundlegenden Aufbau des Forschungsdesigns her ähnelten sich die Artikel: Die meisten gingen eher deduktivhypothesenprüfend und nicht induktiv-hypothesengenerierend vor. Dies hat einerseits mit meiner Beschränkung auf quantitative Paper zu tun, die nur in Ausnahmefällen (z. B. Moore & Benbasat für die Itemgenerierung) qualitative Elemente enthalten. Andererseits stützen sich die Artikel mehrheitlich auf etablierte Theorien und befinden sich in einem Feld, mit langer und intensiver Forschungstradition. Deshalb erstaunt die Homogenität nicht. Eher überraschend ist die Heterogenität der Umsetzung, d. h. die operative Komponente. Die Gesamtnoten auf der Zehnerskala reichen von 5.5 bis 8.1 und zeigen damit beträchtliche Qualitätsunterschiede an, die ich in Kapitel 3 eingehend thematisiert habe. Die besten Artikel weisen eine hohe interne Konsistenz auf: Sie sind durchgehend stark, d. h. sie achten auf die hohe Qualität der Operationalisierung und der Daten, verknüpfen Theorie und Empirie auf saubere Art & Weise und beantworten die gestellten Forschungsfragen eindeutig. Insbesondere sind sie aber theoretisch und empirisch anschlussfähig und gehorchen damit dem Thorstein Veblen Zitat vor Beginn der Arbeit (S. II): Denn ernst zu nehmende Forschung zeichnet sich nicht nur dadurch aus, dass sie wichtige Fragen beantwortet. Sie soll auch neue Forschungsrichtungen aufzeigen und zusätzliche Fragen aufwerfen. Diesen Anspruch haben die drei Beiträge auf dem Podium besser erfüllt als die anderen besprochenen Artikel. Der Vergleich weist eine Reihe von Problemen und Limitationen auf. Zunächst ist das Auswahlraster subjektiv gefärbt. Trotz Bemühungen um Objektivierung und Sachlichkeit, kommt so eine Beurteilung immer persönlich und zu einem gewissen Grad arbiträr daher. Ein Gegenmittel wäre die Verwendung weiterer Reviewer und der Abgleich untereinander. So liesse sich die „Intercoderreliabilität“ bestimmen, also die Übereinstimmung in der Beurteilung. Gegebenenfalls könnten die Kriterien angepasst werden oder eine Diskussion stattfinden mit dem Ziel sich abzugleichen. Zudem müsste man die „Objektivierung ihrerseits objektivieren“ (Bourdieu, 1987), d. h. den Bewerter und seine Position im sozialen Raum mit in die Analyse einbeziehen. Eine solche umfassendere Analyse würde Details zutage bringen, die aus dem bisherigen, lediglich oberflächlichen Zugang nicht ersichtlich sind. Sie erfordert aber vom Aufwand her deutlich mehr als das hier Geleistete. Des Weiteren kenne ich mich nicht mit allen behandelten Methoden gleich gut aus, was die Analyse ebenfalls beeinträchtigt: Persönlich fühle ich mich sicher in den Verfahren, die sich auf Regressionen beziehen (logistische und lineare Regression, Strukturgleichungsmodelle). In verschiedenen Phasen des Studiums und der bisherigen Promotion habe ich diese Methoden selber verwendet. Auch die EFA kenne ich gut, sowohl

23


5

SCHLUSS

theoretisch als auch praktisch in der eigenen Anwendung. Für die soziale Netzwerkanalyse ist zwar solides theoretisches Vorwissen vorhanden, aber es fehlt bisher die praktische Anwendung (bis auf einige Übungen in einer Summer School; siehe Lebenslauf im Anhang zu meinen Methodenkenntnissen). Gleiches gilt für die Survival Analysis, wie sie Iyengar et al. (2011) verwendet haben. Auch hier stützen sich meine Kenntnisse auf einen Kurs und ein darin gegebenes Referat. Eine letzte Limitation betrifft die Auswahl der Bilder der jeweiligen Autoren, die leider sehr formell ausfällt. All diese Abbildungen stammen von der offiziellen Webpräsenz der Forscher und sind deshalb z. T. etwas verstaubt und langweilig. Stattdessen hätte ich die Autoren anschreiben und sie nach persönlicheren Bildern, z. B. aus dem Urlaub oder im Kreise der Familie, fragen können. Dies hätte die Lektüre beträchtlich aufgelockert und ungeahnte Aha-Effekte hervorgerufen. Nun denn: Zukünftige Studien sollen sich dieser Forschungslücke widmen. Betrachten wir das Wittgenstein-Zitat vor Beginn der Arbeit, so können wir die Aussage von den Ideen auf die Forschungsmethoden übertragen. Auch sie „sitzen gleichsam als Brille auf unserer Nase und was wir ansehen, sehen wir durch sie.“ Der pflichtbewusste Wissenschaftler sollte stets reflektieren, wie er vorgeht, welche alternativen Ansätze bestehen, welche Grenzen die verwendeten Methoden aufweisen, d. h. was ihn diese Brille nicht oder nur verschwommen sehen lässt... Aber für den Nachwuchsforscher spielen auch weltlichere Dinge eine Rolle, z. B. ob diese oder jene Brille gerade en vogue ist, ob sie einen intellektuell aussehen lässt oder banal, wie teuer sie ist und ob sie zur Persönlichkeit passt, d. h. in diesem Fall zur übergeordneten Ausrichtung der Dissertation, zum Thema und zum Erkenntnisinteresse. Dank dieser Arbeit habe ich meine Brille abgenommen, gründlich geputzt, wieder aufgesetzt. Und siehe da: Wie klar mein Durchblick!

24


Literatur

BARABASI, A.-L. (2003): Linked: How Everything Is Connected to Everything Else and What It Means for Business, Science, and Everyday Life. New York, Plume/Penguin. BARLEY, S. A. (2006): When I Write My Masterpiece: Thoughts on What Makes a Paper Interesting. Academy of Management Journal, 49(1), 16-20. BEACH, L. R. & MITCHELL, T. R. (1978): A contingency model for the selection of decision strategies. Academy of Management Review, 3(3), 439-449. BORGATTI, S. P., MEHRA, A., BRASS, D. J. & L ABIANCA, G. (2009): Network analysis in the social sciences. Science, 323(5916), 892-895. BOURDIEU, P. (1987): Sozialer Sinn. Kritik der theoretischen Vernunft. Frankfurt a. M., Suhrkamp. COVIN, J. G. & SLEVIN, D. P. (1991): A conceptual model of entrepreneurship as firm behavior. Entrepreneurship: Theory and Practice, 16(1), 7-25. CHUTTUR, M. Y. (2009): Overview of the Technology Acceptance Model: Origins, Developments and Future Directions. Indiana University USA Sprouts Working Papers on Information Systems, 9(37), 1-22. Online: http://sprouts.aisnet.org/9-37 DAVIS, F. D. (1989): Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, 13(3), 319-340. DEVELLIS, R. F. (2012): Scale Development - Theory and Applications (3rd edition). Thousand Oaks (CA), Sage. DIAMANTOPOULOS, A. & WINKLHOFER, H. M. (2001): Index Construction with Formative Indicators: An Alternative to Scale Development. Journal of Marketing Research, 38(2), 269-277. DIEKMANN, A. (2004): Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen. Reinbek bei Hamburg, Rowohlt. DYLLICK, T. (2012): Einführung in die Wissenschaftstheorie und -methodik: Forschungskonzeption. „Management des Dissertationsprojekts“. Kursunterlagen Doktorandenseminar, St. Gallen, Universität St. Gallen. EBERL, M. (2004): Formative und reflexive Indikatoren im Forschungsprozess: Entscheidungsregeln und die Dominanz des reflektiven Modells. Schriften zur empirischen Forschung und quantitativen Unternehmensplanung LMU München, EFOplan 19, 1-34. Online: http://www.imm.bwl.unimuenchen.de/forschung/schriftenefo/ap_efoplan_19.pdf

25


Literatur GOLDENBERG, J., HAN, S., LEHMANN, D. R. & HONG, J. W. (2009): The Role of Hubs in the Adoption Process. Journal of Marketing, 73(3), 1-13. GRANOVETTER, M. (1985): Economic Action and Social Structure: The Problem of Embeddedness. American Journal of Sociology, 91(3), 481-510. HORNSBY, J. S., KURATKO, D. F. & Z AHRA, S. A. (2002): Middle managers’ perception of the internal environment for corporate entrepreneurship: assessing a measurement scale. Journal of Business Venturing, 17(3), 253-273. HOX, J. (2010): Multilevel Analysis: Techniques and Applications (2nd edition). London, Routledge. HU, L. & BENTLER, P. M. (1999): Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1-55. IACOVOU, C. L., BENBASAT, I. & DEXTER, A. S. (1995): Electronic data interchange and small organizations: Adoption and impact of technology. MIS Quarterly, 19(4), 465-485. IYENGAR, R., VAN

DEN

BULTE, C. & VALENTE, T. W. (2011): Opinion Leadership and Social Contagion in

New Product Diffusion. Marketing Science, 30(2), 195-212. JICK, T. D.(1979): Mixing Qualitative and Quantitative Methods: Triangulation in Action. Administrative Science Quarterly, 24(4), 602-611. KAISER, C., HERRMANN, A. & HEITMANN, M. (2007): Survival-Modelle in der betriebswirtschaftlichen Forschung - Grundidee, Methodik, Anwendungen. Die Unternehmung, 61(1), 43-70. KEARNEY, C., HISRICH, R. D. & ROCHE, F. (2009): Public and private sector entrepreneurship: similarities, differences or a combination? Journal of Small Business and Enterprise Development, 16(1), 26-46. KURATKO, D. F., IRELAND, R. D., COVIN, J. G. & HORNSBY, J. S. (2005): A Model of Middle-Level Managers’ Entrepreneurial Behavior. Entrepreneurship: Theory and Practice, 29(6), 699-717. LUMPKIN, G. T. & DESS, G. G. (1996): Clarifying the Entrepreneurial Orientation Construct and Linking It to Performance. Academy of Management Review, 21(1), 135-172. MOORE, G. C. & BENBASAT, I. (1991): Development of an Instrument to Measure the Perceptions of Adopting an Information Technology Innovation. Information Systems Research, 2(3), 192-222. OLIVEIRA, T. & MARTINS M. F. (2011): Literature Review of Information Technology Adoption Models at Firm Level. Information Systems Journal, 14(1), 110-121. PAN, M.-J. & JANG, W.-Y. (2008): Determinants of the Adoption of Enterprise Resource Planning within the Technology-Organization-Environment Framework: Taiwans Communications Industry. Journal of Computer Information Systems, 48(3), 94-102.

26


Literatur PURVIS, R. L., SAMBAMURTHY, V. & ZMUD, R. W. (2001): The Assimilation of Knowledge Platforms in Organizations: An Empirical Investigation. Organization Science, 12(2), 117-135. RAUDENBUSH, S. W. & BRYK, A. S. (2002): Hierarchical Linear Models: Applications and Data Analysis Methods (2nd edition). Thousand Oaks (CA), Sage. ROGERS, E. M. (1995): Diffusion of Innovations (4th edition). New York, Free Press. SCHRADER, U. & HENNIG-THURAU, T. (2008): VHB-Jourqual2: Gesamtranking aller BWL-relevanten Zeitschriften. Online: http://vhbonline.org/service/jourqual/jq2/ (abgerufen am 8. Dezember 2012) SCOTT, J. & CARRINGTON, P. J. (2011): The Sage Handbook of Social Network Analysis. London, Sage. TABACHNICK, B. G. & FIDELL, L. S. (2007): Using Multivariate Statistics (5th edition). London, Pearson. TORNATZKY, L. G. & FLEISCHER, M. (1990): The Process of Technology Innovation. Lexington (MA), Lexington Books. VENKATESH, V. & DAVIS, F. D. (2000): A Theoretical Extension of the Technology Acceptance Model: Four Longitudinal Field Studies. Management Science, 46(2), 186-204. VENKATESH, V., MORRIS, M. G., DAVIS, G. B. & DAVIS, F. D. (2003): User acceptance of information technology: Toward a unified view. MIS Quarterly, 27(3), 425-478. VENKATESH, V. & BALA, H. (2008): Technology Acceptance Model 3 and a Research Agenda on Interventions. Decision Sciences, 39(2), 273-315. VROOM, V. H. (1964): Work and Motivation. New York, Wiley. WASSERMAN, S. & FAUST, K. (1994): Social Network Analysis: Methods and Applications. Cambridge, Cambridge University Press.

Die Zitationen auf Google Scholar und Lesestatistiken auf Mendeley wurden am 8. Dezember 2012 abgerufen, die Zitationen von Web of Science am 16. Dezember 2012. Die Angaben zum Impact Factor (IF) stammen von der Homepage des jeweiligen Journals f端r 2011, ausser f端r den Artikel von Pan & Jang im Journal of Computer Information Systems f端r 2010. Angaben zum Journal Ranking (A+, A, B) kommen von VHB Jourqual2 (Schrader & Hennig-Thurau, 2008). Alle Autorenbilder wurden von der Google-Bildersuche runtergeladen.

27


Anhang .1 Zusammenfassende Beurteilung der Artikel Siehe diese Seite unten Abbildung 10 und nächste Seite Tabelle 8.

.2 Lebenslauf Siehe übernächste Seiten.

.3 Eigenständigkeitserklärung Siehe letzte Seite.

Abbildung 10: ...And the winner is

28


29

7.8

2

Ra n g

Moore & Benbasat

Not e

Autoren

3

7.3

Venkatesh & Davis

5

6.0

Purvis et al.

6

5.5

Pan & Jang

Tabelle 8: Gegen端berstellung der Bewertung der Artikel

4

7.2

Goldenberg et al.

1

8.1

Iyengar et al.


CHRISTOPH LUTZ Blumenbergplatz 9 9000 St. Gallen - Schweiz +41(0)71 224 21 84 AUSBILDUNG Universität Zürich, Lizenziat Soziologie, Management & Economics und Medienwissenschaft 2010 Gymnasium Untere Waid, Matura 2004 AKADEMISCHE ERFAHRUNG UND KURSE AUF DOKTORATSSTUFE SEIT DEZEMBER 2011 Wissenschaftlicher Mitarbeiter und Doktorand am Institut für Medien- und Kommunikationsmanagement, Universität St. Gallen, Lehrstuhl Prof. Dr. Miriam Meckel; Forschungsgebiete: Social Media Nutzung und Akzeptanz in der Verwaltung und Wissenschaft, Online-Vertrauen, Digitale Ungleichheit(en), Partizipation SEIT SEPTEMBER 2012 HDZ Didaktikprogramm: Vorlesungen vorbereiten, durchführen und evaluieren JULI 2012 Essex Summer School in Social Science Data Analysis: Kurse „Multilevel Analysis“ und „Social Network Analysis“ (2 Wochen) MAI 2012 Doktorandenseminar „Netzwerkanalyse“ (Prof. Dr. Miriam Meckel, Prof. Dr. Stanoevska-Slabeva & Thomas Plotkowiak): Präsentation zum Thema „Information Diffusion in Social Networks“ APRIL 2012 Doktorandenseminar „Konfirmatorische Verfahren“ (Prof. Dr. Andreas Herrmann): Präsentation zum Thema „Survival Analysis“ MÄRZ 2012 Doktorandenseminar „Explorative Verfahren“ (Prof. Ph. D. David Sprott): Präsentation zum Thema „Exploratory Factor Analysis“ MITGLIEDSCHAFTEN Academy of Management (AOM) International Network for Social Network Analysis (INSNA) Docnet Universität St. Gallen PUBLIKATIONEN UND PRÄSENTATIONEN Ranzini, G., Lutz, C. & Meckel, M. (under review): Trusted surprises? Antecedents of Serendipitous Encounters online. Paper submitted for the 2013 ICA Annual Conference in London. Lutz, C., Hoffmann, C. P. & von Kaenel, A. (2012): Perception is Reality: The Impact of Buyer and Seller Attributes on Online Trust. In: Hoffend, I.; Becker, R.; Vollmar, J. (Hrsg.): Macht des Vertrauens: Herausforderungen und Perspektiven in Krisenzeiten. Wiesbaden: Springer-Gabler. Fieseler, C., Lutz, C. & Meckel, M. (2012): PR Practitioner Roles Revisited. EUPRERA Annual Congress, Istanbul 20.-22. September, 1-22. Hoffmann, C. P., von Kaenel, A., Lutz, C. & Meckel, M. (2012): Digital Natives and Digital Immigrants: Differences in Online-Trust Formation. Academy of Management (Best Paper) Proceedings, 1-6. AOM Annual Meeting, Boston (MS) 3.-7. August.


Lutz, C. (2012): Open Data and Social Media. Präsentation am 1. Fraunhofer Open Data Dialog, Fraunhofer Fokus, Berlin 6. Dezember. Lutz, C. (2012): Musikalische Geschmacksbreite und symbolische Grenzziehung im Internet. Das Beispiel last.fm. Präsentation am Forschungsforum des Soziologischen Instituts der Universität Zürich, Zürich 28. November. Lutz, C. (2012): New Approaches of Measuring Scientific Impact. Präsentation am 1. HIIG Berliner Kolloquium für Internet und Gesellschaft, Berlin 25. Oktober. AUSZEICHNUNGEN 2012 Academy of Management Best Paper Award in der OCIS (Organizational Communication and Information Systems) Division für den Artikel „Digital Natives and Digital Immigrants: Differences in Online-Trust Formation“ (mit Christian Hoffmann, Andrea von Kaenel und Miriam Meckel) 2007 Teilnahme an der Bright Conference in Stockholm mit dem Thema „The Ageing European - An Ageing Europe?“ als einer von acht Studierenden der Universität Zürich BERUFLICHE ERAHRUNG AUGUST - SEPTEMBER 2011 Teaching English as a Foreign Language (TEFL) Kurs und Diplom mit Befähigung zum Unterrichten von Englisch als Fremdsprache JANUAR - JULI 2011 Praktikum bei der Deutschen Handelskammer für Spanien in Madrid, Externe Kommunikation FEBRUAR 2009 - JANUAR 2011 Redakteur bei der Studentenzeitschrift „Studiversum“ OKTOBER - DEZEMBER 2010 Befrager für den „European Social Survey“: Face-to-Face Interviews in Zürich und Umgebung DEZEMBER 2007 - SEPTEMBER 2010 Freie redaktionelle Mitarbeit im Ressort Regionalkultur „Zürcher Oberländer“ FEBRUAR 2008 - DEZEMBER 2009 NCCR-Projekt 22 zu kulturellen Einflüssen auf die Medienberichterstattung: Codierer „FAZ“ und „Rheinische Post“ FEBRUAR 2008 - JULI 2010 Tutor am Soziologischen Institut der Universität Zürich: Statistik und SPSS JULI 2009 - MAI 2010 Mitarbeit IPMZ-Projekte „Evaluation Kinderfernsehen“ und „Migrantenkinder Mediennutzung“ AUGUST 2008 Institut für Bildungsevaluation der Universität Zürich: Aufbereitung und Bereinigung eines grossen Datensatzes (ch-X) mit SPSS DEZEMBER 2006 - JUNI 2008 Nachhilfelehrer Deutsch, Französisch & Mathematik: Unterricht Sekundarstufe I, 7. und 8. Klasse JULI - SEPTEMBER 2005 & 2006 Med-Service AG, Mörschwil: Messung von Röntgengeräten, administrative Arbeit und Fahrtätigkeit



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.