Praxis wissenschaftlichen Arbeitens Übungsmaterialien PDF

Title Praxis wissenschaftlichen Arbeitens Übungsmaterialien
Course Praxis wissenschaftlichen Arbeitens und Anwendung psychologischer Theorien
Institution Universität Wien
Pages 30
File Size 1.2 MB
File Type PDF
Total Downloads 289
Total Views 483

Summary

Praxis wissenschaftlichen ArbeitensBEDEUTUNGEN FACHBEGRIFFE:Äquivalenz = GleichwertigkeitDie Sensitivität eines Tests = bedeutet die korrekte Erkennung (eines Tests) von Erkrankten,Die Spezifität eines Tests = hingegen die korrekte Erkennung (eines Tests) von Gesunden!p-Wert = der „Fit“ beziehungswe...


Description

Praxis wissenschaftlichen Arbeitens BEDEUTUNGEN FACHBEGRIFFE: Äquivalenz = Gleichwertigkeit Die Sensitivität eines Tests = bedeutet die korrekte Erkennung (eines Tests) von Erkrankten, Die Spezifität eines Tests = hingegen die korrekte Erkennung (eines Tests) von Gesunden! p-Wert = der „Fit“ beziehungsweise die „Passung“ der Daten auf die H0/Nullhypothese, gibt die Wahrscheinlichkeit für das beobachtete oder ein noch extremeres Ereignis an unter der Vorraussetzung der Gültigkeit der H0/Nullhypothese Alpha-Niveau = legt fest ab welchem Wert ein Ergebnis zu unwahrscheinlich ist als dass die H0/Nullhypothese zutrifft und wird üblicherweise mit 5% oder 1% festgelegt

ANFANG DER VORLESUNG: 6.10. 2020 bzw. 9.10.2020 Im Grunde gibt es zwei wesentliche Forschungsansätze: qualitative und quantitative Forschung, beide Ansätze sind wichtig, je nachdem „welches Problem man hat“, welcher Frage man auf den Grund gehen möchte ist der richtige Ansatz zu wählen. Es gibt auch Mischdesigns von qualitativer und quantitativer Forschung (mixed methods = Verschränkung qualitativer und quantitativer Forschung), auf die später noch eingegangen wird. Qualitative Forschung zeichnet sich dadurch aus, dass: •

ihr eine Idee des verstehenden(!!) Erklärens von Aspekten zu Grunde liegt,



sie eher der Hypothesengenerierung dient,



sie KEINE numerischen Ergebnisse erzielt (auch KEINE Pseudoquantifizierung!),

• •

sie primär dem Aufzeigen von Deutungs- und Handlungsmustern dient, es sich bei qualitativer Forschung um eine Interpretation handelt,



sie nicht zusammenfasst,



es oft ein zirkuläres Vorgehen gibt, d.h. dass immer wieder mal etwas geändert wird, angepasst, neu probiert, dadurch auch keine Standardisierung vorgenommen wird, sondern eine sehr offene

• •

Vorgehensweise herrscht => viele „bloße“ Erhebungen, (induktives und abduktives Schließen: https://arbeitsblaetter.stangltaller.at/DENKENTWICKLUNG/Abduktion-Induktion-Deduktion.shtml );

Quantitative Forschung zeichnet sich hingegen aus durch: • • • •

eher bloßes Erklären, Ursache-Wirkungs-Prinzip oder Vergleiche, grundsätzlich steht sehr stark das Prüfen der Hypothesen im Vordergrund, eine sehr deduktive, also „ableitende“ Grundidee/Grundhaltung der Forschungsweise, numerische Ergebnisse und Quantifizierung, 1

• • •

es gibt hier zwar schon auch Erhebungen, aber diese dienen eher der Hypothesenprüfung***, narrative Verfahren: Es werden Geschichten erzählt (Storytelling) und diese werden analysiert und sinnvoll interpretiert, kodiert und kategorisiert, es gibt hier auch hermeneutische Verfahren.

*** Die Meinung des Professors an dieser Stelle: Erhebungen und Umfragen sind ERWARTUNGSFREI und damit NICHT hypothesenprüfend, daher ist es hier fraglich ob das wirklich Forschung in dem Sinne ist, ABER es ist SEHR WOHL QUANTITATIVE ARBEIT. Diese Vorlesung behandelt hauptsächlich QUANTITATIVE Forschung, deshalb hier der Verweis auf die VU „Einführung in qualitative Methoden“ sowie auf die FLS von Prof. Slunecko und Dr. Julia Riegler.

Weitere Meinung des Professors: Ihm scheint dass qualitative Forschung schwieriger sei, denn man muss die Daten vom eigenen Selbst abstrahieren, oder anders gesagt sich Fragen stellen wie „welcher Bedeutungsinhalt kommt von mir, und welcher Bedeutungsinhalt steckt im Gegensatz dazu wirklich in meinen Daten?“. Man braucht hier also wirklich gute Selbstreflexion, damit das Ergebnis nicht subjektiv wird! Offenheit im Denken ist hierbei ganz wichtig, ein gutes Beispiel qualitativer Forschung in einem mixed methods Studiendesign ist hierbei die Studie der Arbeitslosen im Marienthal. In quantitativer Forschung hingegen hat man bloße Zahlen, die man subjektiv nicht wirklich verfälschen kann, daher scheint die quantitative Forschung leichter als die qualitative – dies bedeutet aber nicht, dass sich gar nichts subjektives in quantitativer Forschung findet….. beispielsweise Kriterien wie „Therapieerfolg“ sind (durch eine) SUBJEKTIV(e Grenze) festgelegt, selbst wenn sie durch Zahlen dargestellt werden. Metastudien Sind quantitative Forschung, sobald man Zahlen, Werte und Statistik hat handelt es sich um quantitative Forschung, ABER: klassisches Beispiel qualitativer Forschung sind hingegen: Alle „Wie“- Fragen!! „Qualitative Forschung kann unbeeinflusster an ein Thema herangehen, weil sie sich mit den Daten mitentwickeln kann – das geht bei quantitativer Forschung nicht, denn hier ist das Design anfangs fix vorgegeben!!“ Aber auch qualitative Forschung hat eine ORDENTLICHE METHODIK, an die man sich halten muss!!! 13.10.20 Eine Kinderzeichnung eines Schmetterlings, gelbe Flügel mit grünen Punkten: Wir haben in der freien Wildbahn noch nie einen solchen Schmetterling gesehen, erkennen ihn aber trotzdem als solchen…. Dies ist eine Metapher des Verhältnisses der Statistik zur Realität, denn „Statistik ist eine Kinderzeichnung der Realität, man soll statistische Ergebnisse deshalb NIE eins zu eins in die Realität übernehmen! Statistik ist NICHT gleich Wahrheit“ Gute Statistik dient BLOß dazu, uns ein Stück VEREINFACHTER Realität NÄHER zu bringen! Ähnliches Beispiel bei Ärzten: Wenn diese eine Heilmethode verwenden, die sich zwar bis jetzt gut bewährt hat, aber bei dem betreffenden Patienten NICHT anschlägt, sollte der Arzt es auf einem anderen Weg versuchen, und nicht bloß bei der „bewährten“ Methode bleiben. Ausnahmen existieren immer, die Statistik bildet sie nur nicht ab... Statistik soll auch NICHT verzerren, sondern stattdessen beim Verstehen helfen!

2

ACHTUNG: Wir arbeiten NUR mit Daten, diese sind nicht die Realität per se! Das, was wir auf einem Bildschirm sehen, ist nicht immer zwangsläufig das, was sich im Hintergrund abspielt – daher bitte Daten nicht überinterpretieren! Überinterpretation ist vor Allem dann vorprogrammiert, wenn man einfach Daten erhebt und auf Teufel komm raus vollkommen ohne einen klaren Plan die Daten nach Korrelationen oder Ähnlichem richtiggehend absucht – dies ist zudem KEIN WISSENSCHAFTLICHES VORGEHEN. Aber auch hier: Erhebungen sind NICHT an sich „schlecht“, aber was man dabei rausbekommt ist NICHT mehr als ein Fingerzeig, eine Richtungsweisung, und kein richtiges, direkt „verwertbares“ Ergebnis! Allgemein: Große Vorsicht ist geboten bei Hypothesenfreiheit (kann eben ein Anzeichen für oben genannte Planlosigkeit sein), aber genauso wichtig ist, dass keine Daten durch Erwartungen verfälscht werden sollen – denn sonst werden „Ergebnisse“ erbracht, die in Wahrheit/ in der Realität KEINE SIND! Das grundsätzliche Ziel der Hypothesentestung ist es, die Nullhypothese zu verwerfen (GEGEN Nullhyp.). Damit haben wir eigentlich auch ein Argument FÜR die H1, also die Arbeitshypothese. Da wir aber in der Realität nichts wirklich widerlegen können, sucht man quasi bloß nach Gegenargumenten, die einfach stark genug sind. Weil wir nichts widerlegen können haben wir KEINE Herangehensweisen wie „Alle“, „Keiner“, „Jeder“ und vice versa, wir kennen die Realität nie, wir können keine einzige Behauptung fix widerlegen weil wir einfach nicht alles für immer etc. testen können. ABER: JE ÖFTER ETWAS WIDERLEGT ODER UNTERMAUERT WIRD, DESTO WAHRSCHEINLICHER WIRD ES, DASS ES IN DER REALITÄT STIMMT – DIE PLAUSIBILITÄT STEIGT! Viele Daten zeigen auch NICHT ALLES RELEVANTE auf: Ein Beispiel hierfür wäre ein Farbfoto in Gegenüberstellung zu einem Schwarz-Weiß-Foto – wir sollten uns also IMMER NOCH VOR DER DATENERHEBUNG Gedanken machen, wie man überhaupt das interessierende Merkmal erheben kann, und dabei bestenfalls alle anderen möglichen Variablen die Einfluss nehmen oder nehmen können auf das uns interessierende Merkmal mitberücksichtigen. Praktisch ist das aber eigentlich unmöglich – man kann nie alles testen oder an alles, an jeden einzelnen Faktor denken…. aber wir geben unser Bestes. Tatsache ist, wenn man eine Fragestellung so angeht, dass sich das interessierende Merkmal in der Erhebung nicht zeigt/nicht zeigen kann, dann war die ganze Erhebung umsonst.

B oder 13? Studienplanung und Rahmenbedingungen Ein Studienergebnis kann man nur dann sinnvoll interpretieren, wenn man AUCH DIE RAHMENBEDINGUNGEN KENNT, in denen es entstanden ist. Gibt man beispielsweise einigen Dreijährigen mehrere Jahre Karotten zu essen, wird man ein Ergebnis erhalten in dem – siehe da – eine große Zunahme am Größenwachstum verzeichnet werden kann, die noch dazu statistisch signifikant ist. Bedeutet dies, dass Karottenkonsum jetzt also mit dem Größenwachstum korreliert? NEIN!.... das heißt, eventuell ja. Wenn man eine Gruppe aus Erwachsenen nimmt, und das selbe Ergebnis dabei herauskommt, dann wäre das wohl so. Wenn man aber nur zu hören bekommt: „Die Probanden haben mehrere Jahre lang Karotten konsumiert und es konnte eine statistisch signifikante Zunahme im 3

Wachstum gemessen werden“ und diese Studie lediglich mit einer Gruppe von Dreijährigen gemacht wurde, was dem Leser eben nicht bewusst ist, dann könnte man fälschlicherweise glauben, die Karotten würden mit dem Wachstum korrelieren…. Daher also: RAHMENBEDINGUNGEN SIND GANZ WICHTIG! Übrigens, auch Scheitern ist wissenschaftlicher Fortschritt – denn aus Fehlern lernt man und dann kann man es in Zukunft besser machen! Ein weiteres Beispiel zur Wichtigkeit von Rahmenbedingungen – „Protektiver Faktor vom Rauchen bei Herzinfarkten?“: Raucher scheinen sich von einem Herzinfarkt schneller zu erholen. Woran das liegt? Naja, nicht am Rauchen, soviel ist klar wenn man die Rahmenbedingungen kennt. Denn Raucher sind im Schnitt 10 JAHRE JÜNGER als Nichtraucher, wenn sie einen Herzinfarkt erleiden! Dementsprechend handelt es sich hierbei keineswegs um einen protektiven Faktor des Rauchens, sondern vielmehr um einen Alterseffekt! Eine weitere Metapher für Probleme in wissenschaftlicher Methodik: Wenn wir eine optische Illusion betrachten, die zwei verschiedene Dinge zeigen kann aus eben zwei verschiedenen Blickwinkeln, und wir als Betrachter einen Blickwinkel eingenommen haben, dann ist es schwerer auch die andere Seite zu erkennen. Selbiges Problem zeigt sich in der wissenschaftlichen Methodik – man tendiert dazu, für Alternativerklärungen/Alternativtheorien und Ähnliches etwas blind zu sein, etwas voreingenommen durch seine eigene Perspektive zu sein. Allgemein gehört in der Wissenschaft „Denken vorm Handeln“ (wie auch in vielen anderen Bereichen sonst) wirklich groß geschrieben – die Studienplanung ist ein wesentlicher Bestandteil der Forschung. Man muss sich selbst viele Fragen stellen, die anfangs banal wirken mögen, aber schnell zeigt sich, was alles berücksichtigt werden muss, um genaue, gute repräsentative und verwertbare Daten überhaupt erst erhalten zu können: Was sind meine Grundannahmen? Wovon gehe ich aus? Wie komme ich zu meinen Daten? Was müssen die Daten alles abbilden? Was muss ich berücksichtigen? Wie kann ich die Daten überhaupt erheben? Kann ich die Daten überhaupt erheben? Welche Faktoren könnten meine Daten verfälschen? Was ist meine Stichprobengruppe? Welche Kontrollfaktoren sind wichtig? Wie groß muss meine Stichprobe sein? Will ich etwas erheben, oder will ich standardisierte, quantifizierte Daten? Welcher der Ansätze passt zu meiner Fragestellung? ETC… Um hierbei nicht den Überblick zu verlieren, eine grobe Grundidee zu bekommen und eventuell im besten Fall eine Wissensbasis (denn die meisten Fragen hat sich schon einmal jemand vor einem gestellt…. und vielleicht auch etwas dazu verfasst) -> LESEN, LESEN, LESEN! Allein schon deshalb, um nicht von vornherein völlig in die Irre zu laufen, um sich selbst Eckpfeiler setzen zu können und genauer planen zu können, und vor Allem: so kann man sich „ansehen“ wie es funktionieren könnte oder auch wie es vielleicht nicht funktioniert (aus den Fehlern anderer lernen).Recherchieren, hierbei immer auf die Qualität und Glaubwürdigkeit der Quelle achten, auch sehr wichtig ist hier, dass man grundsätzlich die neuesten (relevanten, validen, plausiblen) Erkenntnisse heranzieht. Man darf übrigens nicht bloß solche Dinge wie beispielsweise Ideen zur Quantifizierung aus früheren fremden Studien übernehmen, sondern sogar komplette Studiendesigns! ALLERDINGS – HIER MÜSSEN QUELLEN ANGEGEBEN UND REFERENZIERT WERDEN, denn man darf das Werk eines Anderen nie als sein eigenes ausgeben!!! Und um noch mal zu verdeutlichen wie wichtig Denken vorm Handeln ist: Wenn man beispielsweise eine Replikation einer Studie macht, in welcher in der Stichprobe der Blutdruck gemessen wurde, müsste man eigentlich schon so weit gehen, bei der Replikation die selben Geräte vom selben Hersteller wie in der Studie zu nehmen, denn auch hier könnten sich Geräte anderer Hersteller unterscheiden und somit die Daten verfälschen und sich als Fehlerquelle herausstellen!

4

Weiters legt man sogar mit der Formulierung der Hypothese selbst irgendwo das Studiendesign fest: dadurch, dass Hypothesen wirklich präzise formuliert sein müssen (NICHT: „A ist besser als B“) können beispielsweise für die richtige Durchführung der Studie wichtige Merkmale der Stichgruppenpersonen durch die Formulierung der Hypothese erst zum Vorschein kommen (Beispielsweise: „A ist in den Wochenstunden von erlebter Migräne nach der Behandlung von Krebspatienten gegenüber B anders“ -> Stichprobenpersonen müssen regelmäßig Migräne haben, oder dieses muss sich für sie zumindest so anfühlen; „nach der Behandlung von“ – wir brauchen einen Post-Test; „gegenüber B anders“ – keine fixe Richtungsbehauptung des Unterschieds……etc.) In der Studienplanungsphase passieren also kurzgefasst alle zentralen Weichenstellungen für die Analyse, die Studienplanung legt somit auch die Qualität der Studie fest, nicht die nachfolgende statistische Analyse (legt die Qualität fest), wie viele glauben. Denn schlecht erhobene Daten, zu kleine oder große Stichproben, überhaupt falsche Wahl der Stichprobe, nicht berücksichtigte Variablen oder gar nicht berücksichtigte (Grund!-)Voraussetzungen wie beispielsweise Randomisierung (und noch viel mehr) führen zu verfälschten Daten und damit zu einer schlechten, unbrauchbaren Studie!! Übrigens: Unter anderem kommt es bei der Wahl der richtigen Stichprobengröße auf die Populationsgröße aus der die Stichprobe stammt an, und auch auf den Fit (= die Passung) der Stichprobe auf die uns interessierende Population. Deskriptive Statistik/Inferenzstatistik/Inferenzschlüsse und warum hier eine gute Stichprobe wichtig ist Beispiel für einen Inferenzschluss (deskriptive Statistik) anhand der Wienwahl: Wir haben einen Haufen Daten einer Stichprobe von Wählern und wollen wissen wie dann die Wahlergebnisse am Ende aussehen werden? Wir wollen also auf das „große Ganze“ schließen? Die Gesamtpopulation welche uns interessiert ist also die Menschen, die gültig für die Wienwahl gewählt haben. Ein guter Fit der Stichprobe auf die Population wäre hier also eine randomisierte Stichprobe aus Menschen (bestenfalls verschiedener Altersgruppen, mit verschiedenem sozioökonomischem Status, verschiedenes Geschlecht….), die gültige Stimmen für die Wienwahl abgegeben haben. Inferenzstatistik ermöglicht uns hierbei erst eine Schlussfolgerung von Stichproben auf die Population – als Beispiel hierfür der Unterschied zwischen Meinungsforschung und Forschung – in der Meinungsforschung werden Leute befragt, und deren Antworten als „Wahrheit“ als „Stand der Dinge“ gesehen – Forschung befragt zwar auch die Menschen, aber im Gegensatz zur Meinungsforschung sehen sich Forscher an wie sieht diese Datenlage aus, wie scheint es zu sein, was scheint wie zu sein, wie könnte es in der Realität aussehen im Gegensatz zu dem Ausschnitt, der von den Daten abgebildet wird… Eine echte repräsentative Stichprobe bedeutet ein Miniaturmodell von dem uns interessierenden Sachverhalt/ der uns interessierenden Population zu haben. Die große Problematik hierbei ist, dass allerdings jedes Detail der Population entsprechen müsste – das ist einerseits deshalb unmöglich, weil es sich ja dann nicht mehr um die Stichprobe, sondern um die Population handeln würde, und andererseits würde es wieder bedeuten, dass jeder aus dieser Population in der Stichprobe vorhanden sein müsste und an der Studie teilnehmen müsste… Oft ist es zum Glück eh so, dass man bloß bestimmte Merkmale einer Population zeigen möchte, und deshalb auch nicht die gesamte Population testen muss. Beispiel: Wenn Intelligenz das uns interessierende Populationsmerkmal ist, dann brauchen wir nur eine repräsentative Stichprobe für die Intelligenz, aber welche Haarfarbe unsere Probanden haben wiederum ist vollkommen egal. Häufig gibt es Eigenschaften die in der Forschungssituation also als zentral angesehen werden, diese sollten möglichst populationsgleich sein (also die Population gut abbilden) und eben andere Eigenschaften sind vernachlässigbar. Welche Merkmale die relevanten beziehungsweise zentralen sind muss immer im Kontext beurteilt werden.

5

23.10.2020 Recherche zur Hypothesengenerierung Zum Thema „Lesen, lesen, lesen…“: nur weil zu einem bestimmten Thema noch keine Literatur existiert heißt das noch lange nicht, dass keine Forschungshypothese zu diesem Thema erstellt werden kann. Es könnte Literatur zu einem ähnlichen Thema wie dem das mich interessiert geben, oder zu den gleichen Grundthemen welche mich beschäftigen und sogar eigene wie Fremdenerfahrung darf herangezogen werden! Wie man beispielsweise bei Covid gesehen hat, dass typische Lungenprobleme die im Röntgen sichtbar waren auch wieder verschwinden können, sobald es den Betroffenen besser ging….das ist bei anderen Lungenproblemen nämlich eigentlich nicht der Fall. Selbst wenn es hier keine Literatur dazu gibt – woher denn auch – wäre es Wahnsinn, diese Beobachtungen nicht für die Forschung zu nutzen!! Wichtig jedoch ist: wenn man etwas recherchiert, dann besser immer sofort aufschreiben woher man es hat, wenn und weil man es später für wissenschaftliche Arbeiten brauchen könnte!! ____________________________________________________________________________________ Auch noch 23. 10.2020 Vorab: Im Folgenden wird IMMER von WISSENSCHAFTLICHEN Hypothesen gesprochen! Wissenschaftliche, also statistische Hypothesen und wie man sie testet Wissenschaftliche Hypothesen sind Fragen, welche man nicht mit Einzelfällen beantworten soll und kann – sie MÜSSEN über den Einzelfall hinausgehen -- , deswegen SIND SIE AUCH KEINE KLASSISCHEN ALLAUSSAGEN. Sie können das auch gar nicht sein, denn sonst wäre ein einzelner hypothesenkonträrer Fall ausreichend, um die gesamte Hypothese zu widerlegen. Des Weiteren interessieren sich wissenschaftliche Hypothesen nicht für extremst kleine Populationen – sie sollen allgemein gelten, Kosten-Nutzen Abwägung spielt hier auch eine Rolle. Eine Hypothese muss sehr konkrete Aussagen darüber treffen, was man sich in den Daten erwartet – wenn man einen klaren Unterschied formulieren kann, dann wird eine Annahme zu einer Hypothese. Einer Hypothese basiert auf grundlegenden Annahmen, die wir als Forscher als Axiome (Axiom = als absolut richtig erkannter Grundsatz; gültige Wahrheit, die keines Beweises bedarf) annehmen. Aus diesen Annahmen suchen wir uns einen oder mehrere bestimmte Aspekte heraus ( - hier leiten wir eine Hypothese ab), den/die wir später mittels erhobener Daten überprüfen. Grundsatz des Professors: Eine Hypothese ergibt sich dann, wenn man damit einen Unterschied testet.*** Hypothesen BENÖTIGEN statistische Tests zur Hypothesenüberprüfung, und zwar IMMER. Bloße Annahmen hingegen darf man einfach im Raum stehen lassen. Mit qualitativen Methoden ist eine Hypothesenüberprüfung NICHT möglich, allerdings ist das auch nicht wichtig, denn qualitative Forschungsmethoden verfolgen andere Ziele. Qualitative Forschung führt auch keine Beweise. ypothesengenerierung… eher „menschennahe“

***Ja, es gibt auch Zusammenhangshypothesen. Diese können zwar auch als Unterschiedshypothesen formuliert werden, sind aber grundsätzlich anders. Wir gehen später darauf ein. Es gibt im Grunde drei Ebenen von wissenschaftlichen Hypothesen:

6



Das Grundgerüst – die Forschungshypothese, besteht aus groben Ableitungen, also Überlegungen wie „hinter diesem und jenem H...


Similar Free PDFs