WiSo-Graduate School UHH: Workflow of Statistical Analysis with STATA: Data Management, Analysis and Visualization

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Prof. Dr. Kai-Uwe Schnapp (WiSo-Fakultät, UHH)

Schedule: Mo., 13.02.2017, 10:30 – 16:00 Uhr
Di., 14.02.2017, 09:00 – 15:00 Uhr
Mi., 15.02.2017, 09:00 – 15:00 Uhr
Do., 16.02.2017, 09:00 – 15:00 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 15.12.2016 (13 Uhr) via Geventis

Course description:
In their education students do regularly get to know statistics to a certain extent. Ideally, some data analysis will be done with data sets ready made for teaching. The resulting knowledge of statistics differs from university to university, but usually it is sufficient for at least simple tasks in data analysis. Actually starting with an analysis of one’s own, however, all too often is a bit rocky. The reason for this being that just knowing statistics is not enough. Why is that so? Self-collected data usually do not come as ready-made as it appears in statistics classes. They need to be adapted, transformed, aggregated or disaggregated, thoroughly documented and saved in meaning- and useful partitions. This involves a large number of tiny steps and decisions in the work process. It is all too easy to lose track of what has been done when, how, why and with which result. Why has X been filtered, why has Y been aggregated the way it has been aggregated, and where does the correction in Z come from and how has it been justified? After a few days it is often not clear anymore, why a variable does now look the way it does. And be it for the reason that the seed number for some random number generator has either not even been set or at least not been saved. It gets much more inconvenient later on, when an article is ready for publication and the journal is asking for documentation or even a replication data set. Or, when an interested reader is sending an e-mail, asking politely for more detailed information on data preparation and analysis. Because it is now that the search starts for information that has been lost along the way.

Many of those problems can be avoided by a well-conceived and thoroughly developed plan for data manipulation and analysis accompanied by extensive documentation of every step in the work process. Most if not all of the things one has been doing can be kept within reach when the steps in the work process are clear (and standardized to the extent possible), and when saving and documenting becomes part of the daily routine of working with data.

This course will try to introduce students to such a working-method with data and at the same time do the first steps of data manipulation and analysis with STATA. The aim is not, however, to actually teach statistics. It is assumed that the students already have at least a basic knowledge of statistics with at least some descriptive and inferential methods known to everybody. Basic knowledge of regression analysis is mandatory.

The structure of STATA’s command language, work process and documentation will be presented. The course teaches some tricks how to achieve almost directly a publishable output. A special focus will be put on graphical output and its improvement.

You may bring your own data into the workshop. However, having data of one’s own is not required.

Learning goal
You will get to know: – STATA’s user interface – basic knowledge in data handling and data manipulation with STATA – basic knowledge of the structure and workings of STATA’s commands for data analysis – basic knowledge of how to quickly produce publishable output with STATA – basic knowledge of efficient process management and documentation using STATA

After all, the course is a language course of sorts. You will get to know STATA as a language to code your data analysis.

Approach
The course will be held in a computer lab. All steps will be demonstrated by the instructor and directly applied by the students. There will be room for free but guided exercise.

There will be a brief (90 minutes) intro into the Graphical User Interface of STATA for people who have never worked with STATA before on the first day of the course week. The course itself starts on the second day of that week, so that newbies have an afternoon’s time to achieve a little acquaintance based on the intro in the morning.

Literature
As introductory literature and a good guide book for further work I suggest Kohler/Kreuter „Data analysis using STATA“ (meanwhile in its third edition) or K/K „Datenanalyse mit STATA“ (the fourth edition from 2012 is strongly recommended).

Exam information
In order to earn credits students will have to complete a homework of about 5-15 hours (depending on individual work pace and prior knowledge) with some data manipulation and analysis, the production of some output that is (almost) ready for publication and a thorough documentation of the whole process.

WiSo-Graduate School UHH: Applied Microeconometrics

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Prof. Dr. Prof. Dr. Thomas Siedler (WiSo-Fakultät, UHH)

Schedule: Dienstags, 16:45 – 18:15 Uhr (ab 18.10.2016) wöchentlich

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 30.09.2016 (13 Uhr) via Geventis

Course description:
In dem Doktorandenkurs werden neueste empirische und mikroökonometrische Papiere im Bereich der Arbeitsmarktökonomie diskutiert. Von den Teilnehmerinnen und Teilnehmern wird erwartet, dass sie ein bis zwei Papiere vorstellen und sich aktiv an der Diskussion beteiligen. Basierend auf den neuen Studien werden Ideen und Strategien für eigene Forschungsarbeiten besprochen und entwickelt. Darüber hinaus werden die Stata Codes der Papiere sowie die verwendeten Daten überprüft und empirische Ergebnisse repliziert. Es werden neueste Artikel aus den Zeitschriften American Economic Review, Quarterly Journal of Economics, Journal of Political Economy, Review of Economic Studies, American Economic Journal: Applied Economics, American Economic Journal: Economic Policy, Review of Economics and Statistics, Economic Journal, Journal of Labor Economics, Journal of Human Resources diskutiert.

WiSo-Graduate School UHH: Informetrische Analysen und Mining von Literatur & Texten

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Prof. Dr. Prof. Dr. Thorsten Teichert (WiSo-Fakultät, UHH)

Schedule: Mo., 24.10.2016, 09:00 – 18:00 Uhr
Mo., 21.11.2016, 09:00 – 18:00 Uhr
Mo., 19.12.2016, 09:00 – 18:00 Uhr
Mo., 23.01.2017, 09:00 – 18:00 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 30.09.2016 (13 Uhr) via Geventis

Course description:
Dieser Methodenkurs ist als Blockveranstaltung konzipiert. Er ist fürDoktoranden aus allen Gebieten der Sozial- und Wirtschaftswissenschaften geeignet. Der Kurs basiert auf über 10 Jahre gemeinsamer Veröffentlichungserfahrung mit Doktoranden in diesem Gebiet.

Zusätzlich zum Besuch der Blockveranstaltungen haben die Teilnehmer dieMöglichkeit, eine informetrische Analyse und/oder eine Textmining-Analyse zu einem von Ihnen gewählten Themengebiet zu verfassen. Diese aktive sowie dokumentierte Teilnahme wird mit 4 ECTS honoriert. Zudem kann bei Verfassen einer Seminararbeit bereits konkret an einer späteren wissenschaftlichenVeröffentlichung gearbeitet werden.

Kursprache:
Deutsch oder Englisch (falls sich nur englischsprachigeTeilnehmer anmelden)

Inhalte:
Informetrische Ansätze von Literaturanalyse bieten eine ausgezeichnete Möglichkeit zur systematischen Erschließung und Durchdringung wissenschaftlicher Themengebiete. Sie eignen sich sowohl für die Einarbeitung in neue Themengebiete, z.B. zu Anfang von Promotionsvorhaben, als auch zur anspruchsvollen Aufarbeitung des Forschungsstandes zum Ziele einer eigenständigen Publikation.

Informetrische Analysen kombinieren bibliometrische Ansätze der Literaturaufarbeitung mit textanalytischenVerfahren und vermitteln so eine „360 Grad“-Sichtweise auf den Forschungsstand.Einfache bibliometrische Ansätze vermitteln einen Überblick über bedeutendeJournale, Autoren wie auch singuläre Arbeiten in einem Forschungsgebiet. Kozitationsanalysen ermöglichen es, zusammen hängende Forschungsströme zu identifizieren und sich dynamisch ändernde Trends in dem wissenschaftlichenDiskurs offen zu legen. Verschiedenste multivariate Analyseverfahren wieFaktoren-, Cluster- und soziale Netzwerkanalyse können eingesetzt werden, umKennziffern abzuleiten und einen ganzheitlichen – auch graphischen – Überblick über das Forschungsfeld zu erzielen. Textmining kann herangezogen werden, um die Analysen zu vertiefen und relevante Themenfelder anhand gängigen Vokabularsund Schlüsselbegriffen zu beschreiben.

Seminarziele:
Zielgruppe: Doktoranden, die informetrische Methoden für Ihre Forschungsprojekte einsetzen möchten und’Hands-on’ Erfahrung und Hilfestellung benötigen.

Das Seminar soll die Teilnehmenden befähigen, neuartige informetrische Analysen zur Unterstützung Ihrer wissenschaftlichen Arbeit einzusetzen und diese zu eigenständigen Publikationen auszuarbeiten. Am selbst gewählten Beispiel soll die Umsetzung einerForschungsarbeit praktisch erprobt werden. Hierbei werden folgende Schritte inder Lehrveranstaltung vorgestellt und am selbst gewählten Beispiel umgesetzt:

1. Datenbasis und Datenextraktion

  • Wie erstelle ich einen SSCI SearchRequest, der mein Themenfeld akkurat abdeckt?
  • Wie extrahiere ich die Daten und bereite sie so auf, dass ich aussagekräftige Ergebnisse erhalte (i.e.,Schreibweise von Autorennamen/Journalnamen)?
  • Welche Ergebnisse kann ich bereits in deskriptiver Analyse erlangen? (z.B. Pilkington, Teichert, 2006)
  • Wie nutze ich Textmining-Software,wie z.B. KH-Coder, zur Unterstützung bei der Aufbereitung von Textdaten?

2. Analytische Vorgehensweise

  • Wie sieht ein typischer Analyseprozess aus? (e.g., Teichert & Shehu 2010)
  • Mit welchen Analyseverfahren kann ich welche Forschungsfragen beantworten?
  • Wie kann ich multivariate Analyseverfahren (Faktoren- und Clusteranalyse) mit graphischen Darstellungen(Soziale Netzwerkanalyse) kombinieren?

3. Informetrische Tools

  • Wie sieht ein typischer Analyseprozess aus? (e.g., Kuntner & Teichert 2015)
  • Was ist bei der multivariaten Analyse von Textdaten zu berücksichtigen?
  • Welche Software (insbesondere zum Textmining) gibt es und wie setze ich diese ein?

Aufbau der Lehrveranstaltung:

1. Blocktermin: Grundlagen und Datenbeschaffung

Im eintägigen Kickoff wird einGesamtüberblick über Methoden der Informetrie vermittelt. Verfahren von Literaturrecherche und -aufarbeitung werden erprobt.

2. Blocktermin: Bibliometrische Analyse

Vormittags: ErlangteErgebnisse werden vorgestellt, offene Fragen angesprochen.

Nachmittags: Verfahren der bibliometrischen Analyse werden vorgestellt und am eigenen Beispiel erprobt.

3. Blocktermin: Textmining und -analyse

Vormittags: ErlangteErgebnisse werden vorgestellt, offene Fragen angesprochen.

Nachmittags: Verfahren derTextanalyse werden am eigenen Beispiel erprobt

4. Blocktermin: Beitragspositionierung

Ganztags: Erlangte Ergebnisse werden vorgestellt, offene Fragen angesprochen.

Literatur (Beispiele eigener Ausarbeitungen):

  • Pilkington, A., Teichert, T. (2006), Management of Technology: themes, concepts and relationships, Technovation, Vol. 26, 288–299.
  • Teichert, T.; Shehu, E. (2010), Investigating research streams of conjoint analysis: A bibliometric study, BuR – BusinessResearch, Vol. 3 (1), 49–68.
  • Teichert, T. (2014), Themen und Trends der Werbeforschung, transfer –Werbeforschung & Praxis, Vol. 60 (2), 19-31.
  • Kuntner, T.; Teichert, T. (2015), The scope of price promotion research: An informetric study, Journal of Business Research (online first).

WiSo-Graduate School UHH: Behavioral Law & Economics

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Prof. Dr. Gerd Mühlheußer (WiSo-Fakultät, UHH)

Schedule:
Do., 15.12.2016, 10:00 – 12:00 Uhr und 14:00-17:00 Uhr
Fr., 16.12.2016, 08:00 – 18:00 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 30.09.2016 (13 Uhr) via Geventis

Course description:
The block course is paper-based and taught in English. It builds on recent developments in the area of behavioral economics (both theoretical and experimental) and discusses applications in classical fields of Law & Economics arena such as torts, contracts, litigation and criminal law. Each session is centered around one or two papers on the reading list (TBA). A good starting point for this research area are the surveys by Camerer and Talley (2007) and Arlen and Talley (2008).

References

  • Arlen, J. and E. L. Talley (2008): \Experimental law and economics,” New York University Law and Economics Working Paper No. 8-1-2008.
  • Camerer, C. and E. Talley (2007): \Experimental Study of Law,” in Handbook of Law and Economics, ed. by A. M. Polinsky and S. Shavell, Elsevier, vol. 2, 1619{1650.

WiSo-Graduate School UHH: Academic Writing

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Dr. Kimberly Crow, Stephan Elkins (Socio Trans Marburg)

Schedule:
Do., 16.03.2017, 10:00 – 17:30 Uhr
Fr., 17.03.2017, 10:00 – 17:30 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 15.12.2016 (13 Uhr) via Geventis

Course description:
Das Seminar erstreckt sich über zwei Tage mit jeweils acht Unterrichtsstunden. Ziel des Seminars ist es, den Teilnehmern und Teilnehmerinnen Kenntnisse zu vermitteln und darin anzuleiten, Ihre Fähigkeiten zur Verfassung wissenschaftlicher Texte in englischer Sprache zu verbessern. Die Zielgruppe sind Wissenschaftler und Wissenschaftlerinnen vor allem aus den Sozialwissenschaften und verwandten Fachgebieten. Um praktische Übung ermöglichen und
auf individuelle Bedürfnisse eingehen zu können, ist die Zahl der Teilnehmer auf zwölf Personen begrenzt.

Das Seminar wird durchgeführt von Dr. Kimberly Crow von Crow’s English Operations (CEO) und Stephan Elkins von SocioTrans. Sowohl Dr. Crow als auch Herr Elkins sind Muttersprachler in Englisch und Deutsch und ausgebildete Sozialwissenschaftler mit langjähriger Erfahrung in universitärer Forschung und Lehre.

CEO hat sich in der Sprachvermittlung auf den Bereich Führung und Forschung spezialisiert. Dr. Crow bietet regelmäßig Workshops zu den Themenbereichen Konferenzenglisch und wissenschaftliches Schreiben auf Englisch sowie englische Präsentationstrainings für namhafte Unternehmen, Universitäten, Graduiertenkollegs und Forschungseinrichtungen an (siehe auch http://www.crows-english.de/).

SocioTrans ist auf die Übersetzung und sprachliche Überarbeitung sozialwissenschaftlicher Texte (Deutsch/Englisch, Englisch/Deutsch) spezialisiert. Zahlreiche Sozialwissenschaftler und Sozialwissenschaftlerinnen von Universitäten und Forschungseinrichtungen aus Deutschland, Österreich und der Schweiz gehören zum Kundenkreis, der bei seinen internationalen Publikationsaktivitäten unterstützt wird (siehe www. sociotrans.com).

Seminarkonzeption
Auf der Basis der in diesen Bereichen gewonnen Expertise haben Dr. Crow und Herr Elkins dieses Seminar konzipiert und führen es in Kooperation durch.

Das Seminar gliedert sich in drei Schwerpunkte. Am Anfang steht die Reflexion über den Charakter der englischen Sprache. Die Besonderheiten des Englischen hat wichtige Konsequenzen mit Blick auf das, was einen guten Schreibstil ausmacht. Hiervon ausgehend wird anhand von Formulierungsbeispielen aus der Praxis herausgearbeitet, worin sich ein deutscher akademischer Text von einem angelsächsischen idealtypisch unterscheidet. Den Teilnehmern und Teilnehmerinnen werden Leitlinien an die Hand gegeben, wie Texte auf wissenschaftlich hohem Niveau geschrieben und zugleich lebendig und interessant gestaltet werden können. Es werden typische Probleme aufgezeigt, die deutschsprachige Autoren und Autorinnen beim Verfassen englischsprachiger Texte haben, und Strategien vorgestellt, wie man diese Probleme lösen kann.

Im zweiten Schwerpunkt werden diese Erkenntnisse beim eigenen Schreiben praktisch zur Anwendung gebracht. Allen Teilnehmenden wird wiederholt ausführlich Gelegenheit gegeben, das neue Wissen mit Unterstützung der Trainer anzuwenden. In diesem Zusammenhang wird auch auf Papiere eingegangen, welche die Teilnehmer und Teilnehmerinnen im Vorfeld verfasst haben und die von den Trainern durchgesehen wurden.

Der dritte Schwerpunkt richtet sich darauf, die Teilnehmenden mit Ressourcen und Hilfsmitteln vertraut zu machen, die Ihnen bei der Verfassung Ihrer Texte nützlich sein können. Die Teilnehmer und Teilnehmerinnen erhalten eine Sammlung mit Wortlisten für im wissenschaftlichen Kontext häufig benötigte Wortarten, um ihr eigenes Schreiben abwechslungsreicher und ansprechender gestalten zu können. Die Sammlung wird ergänzt durch weiterführende Literatur und Hinweise auf Recherchestrategien und elektronisch gestützte Vertiefungsmethoden.

Im Rahmen des Seminars wird weitestgehend auf grammatikalische und linguistische Fachbegriffe verzichtet. Stattdessen greifen wir auf alltagssprachliche und leicht verständliche Begriffe zurück.

Materialien
Um im Rahmen authentischer Textsituationen bleiben zu können, arbeiten wir mit Beispielen aus unserer alltäglichen Praxis und bitten auch die Teilnehmenden im Vorfeld des Seminars, Texte aus ihren aktuellen Forschungszusammenhängen einzureichen. Letzteres erlaubt es, uns ein besseres Bild von den Stärken und Schwächen der Teilnehmenden zu machen und im Seminar zielgenau auf die evident gewordenen Bedürfnisse einzugehen. Alle im Seminar behandelten Inhalte und Materialien werden streng vertraulich behandelt. Die Seminarteilnehmer und -teilnehmerinnen werden mit einem ausführlichen Skript ausgestattet (inklusive Wortlisten und weiterführender Literatur), das die behandelten Themen zusammenfasst und auf das sie auch später wieder zurückgreifen können. Es werden zahlreiche unterstützende Materialien und Ressourcen vorgestellt.

WiSo-Graduate School UHH: How to write an empirical paper

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Prof. Dr. Christiane Hellmanzik (WiSo-Fakultät, UHH)

Schedule: Di., 22.11.2016, 10:00 – 17:00 Uhr
Do., 12.01.2017, 11:00 – 16:00 Uhr
Fr., 13.01.2017, 09:00 – 19:00 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 30.09.2016 (13 Uhr) via Geventis

Course description:
In this course we are going to carefully and in great depth analyse seminal papers and what made them so succesful. Our focus in particular will be on:

  • Research gap targeted by the paper – what ist he innovation?
  • Selling strategy – what ist he story of the paper and why does it work?
  • Econometricstrategy – data and estimation technique
  • Impact of the paper

Based on this extensive exercise we are going to build small research teams who will each work out a state-of the-art,empirical research proposal with all bells and whistles on their chosen topic.In doing so each team should aim high at fulfilling the above criteria and pitch their idea to the rest of the class. Each group presents their research proposal in lieu of a written exam.

WiSo-Graduate School UHH: Die Regeln guter wissenschaftlicher Praxis und die Problemfelder im Forschungsalltag

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Helga Nolte (Ombudsstelle, UHH)

Schedule: Do., 29.09.2016, 09:30 – 17:30 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 15.09.2016 (13 Uhr) via Geventis

Course description:
Das Seminar basiert nach Inhalt und Umfang auf den Empfehlungen des Curriculums für Lehrveranstaltungen zur „Guten wissenschaftlichen Praxis” vom Oktober 2012, das im Auftrag und in Zusammenarbeit mit dem Ombudsman für die Wissenschaft erstellt wurde (s. hier: http://www.ombudsman-fuer-die-wissenschaft.de/index.php?id=6096).

Im August 2014 wurde die neue Satzung der Universität Hamburg „Zur Sicherung guter wissen-schaftlicher Praxis und zur Vermeidung wissenschaftlichen Fehlverhaltens” in Kraft gesetzt. Dieses Regelwerk, das sich wiederum an der DFG-Denkschrift „Sicherung guter wissenschaftlicher Praxis” orientiert, wird ausführlich erläutert und mit praktischen Beispielen dargestellt. Dabei stehen die folgenden Themenbereiche besonders im Fokus:

  • Definition „Gute wissenschaftliche Praxis” und „Wissenschaftliches Fehlverhalten”
  • Umgang mit Daten, Quellen und Ideen
  • Autorschaft und Publikationsprozess
  • Betreuung (Rechte und Pflichten von Betreuern und Betreuten)
  • Interessenskonflikte und wissenschaftliche Kooperation
  • Umgang mit Konflikten; Ombudssystem
  • Umgang mit wissenschaftlichem Fehlverhalten

Die Teilnehmenden erhalten also einen Überblick über die Regeln guter wissenschaftlicher Praxis und über den Umgang mit wissenschaftlichem Fehlverhalten. Häufige Konfliktbereiche und die Grauzonen zwischen fragwürdiger wissenschaftlicher Praxis, Regelverstößen und Fehlverhalten werden ausführlich erörtert. Anhand von Fallbeispielen werden häufig bestehende Unklarheiten aus den Bereichen Betreuung, Autorschaft und Datenmanagement angesprochen. Konfliktsituationen in der Forschungspraxis, die sich aus Regelverstößen ergeben können, und mögliche Handlungsoptionen und Lösungsansätze dazu werden umfassend thematisiert. Das bestehende Ombudssystem wird vorgestellt.

Den Teilnehmenden wird Raum für Reflexion ihrer Werte und Haltung als Wissenschaftler/innen eingeräumt, und es werden Fragen und Unklarheiten zu dieser Thematik bearbeitet.

Zusammengefasst sollen die Teilnehmenden zum einen umfassend über die Inhalte der neuen Satzung und deren praktische Bedeutung für den Forschungsalltag informiert werden. Zum anderen dient das Seminar der Sensibilisierung für mögliche Graubereiche und Konfliktfelder und den dafür notwendigen Lösungsmöglichkeiten.

Reminder – Call for Papers: Digital Working Life

Special Issue of Management Revue
Digital Working Life

Guest Editors:
Mikael Ottosson, Lund University (Sweden)
Calle Rosengren, Lund University (Sweden)
Doris Holtmann, Helmut-Schmidt-University Hamburg (Germany)
Wenzel Matiaske, Helmut Schmidt University Hamburg (Germany)

Working life is undergoing a radical change in which new digital technologies are changing the nature of labour and its organizational forms in a pervasive manner, regardless of whether it concerns qualified professionals or labourers. The framework, which previously regulated the content of work, as well as when, where and how it would be conducted is being reconsidered. A process that presents both challenges and possibilities.

One fundamental aspect of ICT is that it can make employees more accessible to others and allow work to become more available to the employee. Easy access to ICT functions (e.g., email, text and voice messages), for example, enable employees to continue working after leaving the office for the day. This ease of access may have both positive and negative effects. Although much of the research focus to date has concentrated on how ICT may act as demands, stressors or certain characteristics of ICT can enhance work-life balance, employee satisfaction, well-being and productivity.

Another aspect of new digital technologies concerns the manner in which the work process is monitored and controlled. Surveillance in the workplace is not a novelty. Nor is it unreasonable to expect that employers have both rights and reasons to do so. To a certain extent, of course. However, increasing availability of relatively inexpensive and easy to use technology, for example software monitoring programs, enables employers to expand the range and scope of their control over their employees’ activities. The increase in potential methods to track and monitor employee behaviour poses questions that concern where the borders for personal integrity are drawn. Who has the right to personal details, and at what point? In what way does this monitoring affect the social relations between employer and employee in terms of control, autonomy and trust?

Digital technology, in computers, phones or in the “Internet of things” also provides tools that enable the standardization of work on a completely different level than previously. For some workers, we see a degradation and depletion of work, and also that the control of work is increasing; a development that is usually described using the concept of “Digital Taylorism.” How does this development affect the working man or the working class?

In the special issue we would like to discuss our topic in an appropriately broad and interdisciplinary manner. We are particularly interested in questions such as:

  • Virtual work and stress
  • Digital technologies and work-family boundaries
  • Virtual teams and E-leadership
  • Digital Taylorism
  • Virtual work and trust
  • Digital surveillance

This is not an exhaustive list.

Deadline
Full papers for this Special Issue of Management Revue must be submitted by September 30th, 2016. All contributions will be subject to a double-blind review. Papers invited to a ‘revise and resubmit’ are due January 31st, 2017. Please submit your papers electronically via the online submission system at http://www.management-revue.org/submission/ using ‘SI Digital Working Life’ as article section.

Looking forward to hearing from you!
Mikael Ottosson
Calle Rosengren
Doris Holtmann
Wenzel Matiaske

HSU-Doktorandenkurs: Combining Rigor and Relevance with Necessary Condition Analysis (NCA)

Institution: Helmut-Schmidt-University Hamburg

Lecturer: Jan Dul, Rotterdam School of Management, Erasmus University

Date: 20.10.2016 – 10 a.m. to 15 p.m.

Place: Helmut-Schmidt-Universität, Holstenhofweg 85, 22043 Hamburg

Room: tba

Language of instruction: English

Registration: You can register for the course until 14.10.16 by email to Sven Hauff (hauffs@hsu-hh.de)

Contents:
Necessary Condition Analysis (NCA) is a novel methodology, recently published in Organizational Research Methods (Dul, 2016). Reactions of editors and reviewers of papers that use NCA are very promising. For example, an editor of a 4-star journal said:
“From my perspective, [this NCA paper] is the most interesting paper I have handled at this journal, insofar as it really represents a new way to think about data analyses”.

How does NCA work?
NCA understands cause-effect relations in terms of “necessary but not sufficient”. It means that without the right level of the condition a certain effect cannot occur. This is independent of other causes, thus the necessary condition can be a bottleneck, critical factor, constraint, disqualifier, etc. In practice, the right level of necessary condition must be put and kept in place to avoid guaranteed failure. Other causes cannot compensate for this factor.

Whom is NCA for?
NCA is applicable to any discipline, and can provide strong results even when other analyses such as regression analysis show no or weak effects. By adding a different logic and data analysis approach, NCA adds both rigor and relevance to your theory, data analysis, and publications. NCA is a user-friendly method that requires no advanced statistical or methodological knowledge beforehand. It can be used in both quantitative research as well as in qualitative research. You can become one of the first users of NCA in your field, which makes your publication(s) extra attractive.

What will be discussed in the seminar?
The seminar consists of two parts:

  1. The first part (one hour) is open to anyone who is interested in NCA and its potential value. We will discuss the method and its applications in different management fields.
  2. Immediately afterwards, in the second part (1-3 hours depending on the number of participants) we will discuss the method in more detail. In particular we will focus on the participants’ research areas and datasets. If you are interested in a demonstration of the method on your dataset, please bring your dataset (scores of the variables) on a USB drive (e.g., excel.csv file). Normally, an NCA analysis takes less than 5 minutes to get the main results.

More information:

  • www.erim.nl/nca
  • Dul, J. (2016) Necessary Condition Analysis (NCA): Logic and methodology of “necessary but not sufficient” causality, Organizational Research Methods, 19(1), 10-52.

WiSo-Graduate School UHH: MAXQDA Complete: Transkription, Datenaufbereitung und computergestützte Auswertung

Institution: Graduate School at Faculty of Business, Economics and Social Sciences – Universität Hamburg

Lecturer: Dr. Thorsten Dresing (Audiotranskription Marburg)

Schedule:
Do., 01.12.2016, 09:00 – 15:30 Uhr
Fr., 02.12.2016, 09:00 – 15:30 Uhr

Place: Universität Hamburg, further information in Geventis

Registration: You can register for the course until 30.09.2016 (13 Uhr) via Geventis

Course description:
In diesem Kurs erhalten Sie eine vertiefte Einführung in die Transkription von Interviews, die Aufbereitung anderer Datenarten für und den Umgang mit dem qualitativen Datenanalyseprogramm MAXQDA. Der Fokus des Kurses liegt, neben dem Codieren und Arbeiten mit Memos, auf der Umsetzung von mixed methods Ansätzen im Rahmen wissenschaftlicher Forschungsprojekte. Dieser Kurs vermittelt, welche Funktionen MAXQDA offeriert und wie sich diese im Forschungsprozess für unterschiedlich methodische Vorgehensweise sinnvoll und pragmatisch einsetzen lassen. Es werden Fragen beantwortet wie:

  • Wie verschrifte ich meine Interviews regelgeleitet und synchronisiere die Aufnahmen mit den Transkripten?
  • Wie entwickle ich ein Kategoriensystem induktiv oder deduktiv, ordne Textstellen passend zu und differenziere das Codesystem aus?
  • Wie nutze ich Memos als Forschungswerkzeug sinnvoll für Interpretationsansätze, Case Summarys, Ankerbeispiele, Definitionen und Theorieideen?
  • Wie kann ich meine Analysedurchgänge mit dem Text-Retrieval und Suchwerkzeug gestalten und ggf. interessante Passagen automatisch codieren?
  • Wann helfen Variablen bei der qualitativen Datenanalyse und wie lassen sich selektive Aussagen von bestimmten Personengruppen herausfiltern, um sie bspw. zu kontrastieren?
  • Wie visualisiere ich meine Daten für die Auswertungsphase und den Ergebnisbericht?
  • Wie gestalte ich die Arbeit im Team?

Zielgruppe:

Dieser Workshop richtet sich an Studierende, Promovierende und ProjektmitarbeiterInnen aus den sozialwissenschaftlichen Disziplinen sowie an alle, die sich für die Auswertung qualitativer Daten interessieren. Vorkenntnisse zu MAXQDA werden nicht vorausgesetzt.

Zu beachten:

Bitte bringen Sie für diesen Kurs Ihr Notebook und eine aktuelle Version von MAXQDA mit. Sofern Sie MAXQDA nicht besitzen, können Sie mit der Demoversion arbeiten (allerdings nur einmalig 30 Tage, eine Verlängerung ist nicht möglich). Klären Sie dies bitte vor dem Kursbeginn, bei Fragen schreiben Sie uns eine kurze Nachricht.

Ablauf:

DO, 01.12.2016

09.00 – 09.30: Begrüßung und Vorstellungsrunde, u.a. Eruieren des Erfahrungshintergrundes und Wissenstandes der KursteilnehmerInnen, Aufbau der Rechner usw.

09.30 – 10.30: Grundprinzipien der Transkription und Arbeit in MAXQDA
Angemessene Aufbereitung qualitativer Daten: Transkriptionsregeln, Materialarten
Datensicherung, Datenschutz und rechtlich relevante Aspekte
Analogie zwischen Software- und Papieranalysearbeit
Vier Fenster zum Analysieren und Codieren

10.30 – 10.45: Kurze Pause

10.45 – 12.00: Einführung in die Arbeit mit Codes und Memos
Überblick über methodische Grundlagen und Vielfalt qualitativer
Textanalyse
Offenes Codieren an Beispieldaten
Sinn und Zweck von Memos im Forschungsprozess
Textretrieval als Perspektivenwechsel
Einübung aller Arbeitsschritte mit Aufgabenblatt und Ergebnissicherung

12.15 – 13.15: Mittagspause

13.15 – 14.30: Arbeit mit dem Codesystem
Codes ausdifferenzieren
Codes fusionieren
Einsatz von Farben und Visualisierungen bei der Auswertung

14.30 – 14.45: Kurze Pause

14.45 – 15.30: Suchfunktion und automatisches Codieren
Möglichkeiten und Grenzen einer automatisierten, lexikalischen Suche
Code-Matrix-Browser und Segmentmatrix zur Ergebnisgenerierung
Einübung aller Arbeitsschritte mit Aufgabenblatt

FR, 02.12.2016

9.00 – 09.20: Kurzwiederholung und Tagesplan

09.20 – 10.30: Variablen und logische Aktivierung
Variablenliste, Variablen pflegen
Aktivieren via Dokumentvariablen
Sets zur Bündelung von Gruppen

10.30 – 10.45: Kurze Pause

10.45 – 12.00: Kreuztabellen und komplexes Textretrieval
Code in Variable umwandeln
Kreuztabellen nutzen
Ggf. komplexes Textretrieval zur Filterung von Codezusammenhängen

12.00 – 13.00: Mittagspause

13.00 – 14.30: Visualisierungen
MAXMaps, Codeline, Dokumentvergleichsdiagramm, Dokumentportrait
Farben zur Selektion nutzen
Export der Visualisierungen

14.30 – 15.00: Teamwork und Überblick
Organisation der Teamarbeit in MAXQDA, Vergleich von Codierern
Ggf. Summarys und Grid-Tabellen

gegen 15.00: Kursende

Der Referent Thorsten Dresing hat in Marburg Pädagogik und Soziologie studiert und an der Philips-Universität Marburg zum Thema „Entwicklung und Evaluation eines hybriden Onlineseminars zur Textanalyse“ promoviert. Hauptberuflich ist er geschäftsführender Gesellschafter der dr. dresing & pehl GmbH – audiotranskription.de und entwickelt die Transkriptions- und QDA-Software f4 und f4analyse. Freiberuflich ist er seit 14 Jahren Dozent für qualitative Sozialforschung mit dem Fokus auf f4, MAXQDA und qualitativer Inhaltsanalyse.