Motivationspsychologie VL 4 Skinner PDF

Title Motivationspsychologie VL 4 Skinner
Author emine chrifa
Course Einführung in die Motivationspsychologie
Institution Technische Universität Chemnitz
Pages 7
File Size 216.3 KB
File Type PDF
Total Downloads 51
Total Views 138

Summary

Motivationspsychologie VL 4 Skinner Zusammenfassung....


Description

Motivationspsychologie - VL 4: Skinners behavioristische "Theorie" der Motivation (Quellen: Foliensatz WS 13/14, "Motivationspsychologie Kompakt", U. Rudolph, 2. Auflage, 2009) Wer war Skinner? - Kritik (-): wurde von vielen Wissenschaftlern als reduktionistischer, mechanischer Verhaltensforsch angesehen, der Existenz eines kreativen, absichtsvollen Geistes und den freien Willen Verhalten zu wählen und dafür Verantwortung zu übernehmen leugnete --> deterministisch wie Freud - setzte menschliches mit tierischem Verhalten gleich --> jegliches Verhalten kann durch externe Kontrolle und Verstärkungsprinzipien geformt werden -leugnet freien Willen, geringschätzte höheren geistigen Fähigkeiten des Menschen --> beraub dem Menschen das Menschliche --> kann Verhalten sehr gut vorhersagen, aber nur rein mechanisch - wurde auch "Darth Vader" der Psychologie genannt - Zustimmung (+): brillanter Schöpfer des radialen Behaviorismus (Skinner hat die am besten kontrollierten, zuverlässigsten, experimentellen Ergebnisse in Psychologie hervorgebracht - Skinners Konzepte sind auf Realität und Menschen übertragbar --> Menschen konnte konkret geholfen werden - Techniken der positiven Verstärkung können Welt vor Bedrohung, vor Verfall der Städte, ökologische Katastrophen und unkontrolliertem Bevölkerungswachstum schützen - laut seinen Anhängern ist Skinner der "größte humanistische Wissenschaftlich unserer Zeit" (Bjork, 1997) Skinners "System" - erklärt gut menschliches Verhalten - keine kognitiven/alltagssprachlichen Begriffe (wie Motivation, Emotionen, Wünsche etc.) - ahistorisch Grundlegende Begriffe und Konzepte 1) Respondentes und operantes Verhalten: - respondent: Antwortverhalten, alle Arten von Reflexen, z.B. Speichelfluss beim Pawlow'schen Hund --> Reaktion auf Wissen es gibt Nahrung --> wird von eindeutig identifizierbaren Stimulus ausgelöst, der Reflex mit Notwendigkeit auslöst - operant: Wirkverhalten, wird nicht durch vorhergehende Reize oder Stimuli reflekthaft ausgelöst, wird willentlich ausgeführt, alle Arten von (zweckgerichteten) Handlungen z.B. Kind bettelt um Süßigkeiten --> vorher schon mal passiert --> Kind hat schon mal um Süßigkeiten gebettelt --> wurde verstärkt 2) Klassisches und operantes Konditionieren - wichtiger Unterschied zwischen beiden ist zeitliche Perspektive - klassisch: vorauslaufende Bedingungen (unkonditionierter Stimulus und dessen Paarung mit anderen Stimuli) --> bei hinreichender Paarung von unkonditioniertem und konditionertem Stimulus --> konditionierte Reaktion, erklärt respondentes (reflexhaftes) Verhalten - operant: Auswirkungen des Verhaltens bestimmen Auftretenshäufigkeit, immer wenn Verhalten auftritt --> Verstärkung --> Wahrscheinlichkeit des Verhaltens steigt, erklärt operantes Verhalten (etw. wird getan um etw. zu erreichen) 3) Verstärkung und Löschung - etwa: Lernen und Verlernen von Verhalten, sind operational definiert: wenn Stimulus einer Reaktion folgt und nachfolgend die Auftretenswahrscheinlichkeit von R steigt, dann ist S eine Verstärkung

- Gesetz der Verstärkung: Wahrscheinlichkeit eines operanten Verhalten steigt, wenn ihm eine Verstärkung folgt - Gesetz der Löschung: Wahrscheinlichkeit eines operanten Verhalten steigt, wenn ihm keine Verstärkung folgt - Bsp.: Kind bettelt um Süßigkeiten (=operantes Verhalten), Verhalten wird häufiger vorkommen, wenn es zum Erfolg führt (verstärkt wird), wenn Eltern nachgeben "verschwindet" unerwünschtes Verhalten nur kurzfristig, obwohl Verstärkung zu höherer Auftretenswahrscheinlichkeit führt 4) Abneigung gegen "Theorie" stattdessen operationale Definitionen der Variablen und deren Anwendbarkeit: experimentelles Paradigma mit UV und AV: "System", z.B. bestimmter Verstärkungsplan (UV) --> Einfluss auf Löschungsresistenz (AV) 5) Unterschiede zwischen früheren Konzeptionen des Lernens operanten Verhaltens (insbesondere Thorndike und Hull) und Skinners Konzeption - Thorndikes Modell: S --> R, es gibt auslösenden Stimulus --> Reaktion, immer wenn S dann R, Assoziation von S-R wird stärker, wichtig: Reize (Situation) vor Verhalten - Skinners Modell: R Reaktion, verstärkender Stimulus der Auftretenswahrscheinlichkeit in Zukunft erhöht, nicht in jeder Situation gibt es einen verstärkenden Stimulus, Verstärkung durch Belohnung oder Bestrafung: pos./neg. Handeln --> verstärkender Stimulus --> Reaktion, Konsequenzen beeinflussen weiteres Verhalten, wichtig: Reize nach verhalten, nicht jede R wird verstärkt; UV: Verstärkungsart und Verstärkungsplan, AV: Akquisition (Erwerb), Reaktionshäufigkeit, Extinktion Verstärkungsarten und Verstärkungspläne Verstärkungsarten: - Verhalten tritt häufiger auf, wenn es positive Konsequenzen hat, seltener bei neg. oder keinen Konsequenzen --> "psychologischer Hedonismus" - Arten: pos. und neg. Verstärkung (Belohnung), Bestrafung Typ I und II Formen der Verstärkung nach Skinner: Art der Verstärkung Definiton Positive Verstärkung Ein pos. Stimulus folgt einem ("positiven") Verhalten Ein negativer Negative Stimulus wird Verstärkung entfernt, nachdem ein ("positives") Verhalten aufgetreten ist. Formen der Bestrafung nach Skinner: Art der Verstärkung Defintion Ein negativer Bestrafung Typ I Stimulus folgt einem ("negativen") Verhalten. Ein positiver Stimulus Bestrafung Typ II wird entfernt, nachdem ein ("negatives")

Effekt Erhöht die Auftretenswahrscheinlichkeit des ("positiven") Verhaltens.

Beispiel Ein Schüler erhält für eine gute Arbeit eine gute Note.

Erhöht die Auftretenswahrscheinlichkeit des ("positiven") Verhaltens.

Das Kind darf sein Zimmer wieder verlassen,, wenn sein Wutanfall beendet ist.

Effekt Senkt die Auftretenswahrscheinlichkeit des ("negativen") Verhaltens. Senkt die Auftretenswahrscheinlichkeit des ("negativen") Verhaltens.

Beispiel Ein Schüler erhält für eine schlechte Arbeit eine schlechte Note. Einem Jugendlichen, der in einem Monat 500€ Telefonkosten verursacht hat, wird

Verhalten aufgetreten ist.

das Handy weggenommen.

- ob Verhalten verstärkt/bestraft wird, hängt davon ab, ob es erwünscht oder unerwünscht ist (Erziehungssituation) - auch möglich Wahrscheinlichkeit von unerwünschtem Verhalten zu erhöhen (z.B. aggressives Verhalten bei Hunden) und Wahrscheinlichkeit von erwünschten Verhaltensweisen zu senken - Belohnung/Verstärkung funktioniert in der Regel besser als Bestrafung (auch Ausnahmesituationen) Verstärkungspläne - Verstärkungsarten: zentrale Frage, welche Stimuli welchem Verhalten folgen - Verstärkungsplan: mit welcher Häufigkeit und zu welchem Zeitpunkt folgen Stimuli einer Reaktion - bei Tierexperimenten höhe Kontrolle, wann und welche Stimuli den Reaktionen der VT folgen - bei menschlichem Verhalten selten hohe Kontrolle - Alltagsbsp.: 1) Kind meldet sich in der Schule; Verstärkung, wenn Lehrerin Kind aufruft 2) Angler fährt jedes Wochenende zum Angeln, Verstärkung ist jeder gefangene Fisch. zeitliche Merkmale des Verstärkungsprozesses Kontinuierliche vs. intermittierende Verstärkung ... nach jeder Reaktion... ...nach manchen Reaktionen

Anzahl von Reaktionen Quoten- nach einem Quotenplan... variabel fixiert

vs.

Zeitplan, Zeitraum Intervallverstärkung ...nach einem Intervallplan variabel fixiert

kontinuierliche Verstärkung: - jede erwünschte Reaktion von positivem Stimulus gefolgt (verstärkt) - Schulbsp.: nicht möglich, da Lehrer alle Schüler am Unterricht beteiligen möchte - beim Angler, bei jedem Versuch fängt er einen Fisch intermittierende Verstärkung: - nicht jeder erwünschte Reaktion wird verstärkt - aufgegliedert in Quoten- und Intervallpläne: Verstärkung nach Anzahl oder nach einem Zeitintervall - Schulbsp.: Lehrer bemüht sich, entweder Kind bei jeder 3. Wortmeldung oder mind. 3mal je Stunde aufzurufen - Verstärkung erfolgt exakt nach jeweils 10min oder exakt bei jeder 3. Wortmeldung (fixiert) oder Verstärkung erfolgt im Schnitt alle 10min oder nach jeder 3. Meldung (variabel) - Verstärkungspläne sind bei Skinner UVs - in Skinner Box sind Verstärkungspläne festlegbar --> immer nur gewünschtes Verhalten wird verstärkt Löschung und Extinktion - bei beiden Verstärkungen gilt: wenn keine Verstärkung erfolgt, wird Verhalten nicht mehr auftreten - Schulbsp.: wenn Kind niemals aufgerufen wird --> wird es sich nicht mehr am Unterricht beteiligen - Angler, der an einem See keinen Fisch fängt, wird in Zukunft an einem anderen fahren => Löschung des Verhaltens - Zeitdauer bis Verhalten gänzlich unterbleibt = Extinktionsrate der Reaktion (AV)

Auswirkungen der verschiedenen Verstärkungspläne auf AVs Akquisition neuer Reaktion - (neue) Reaktion wird leicht erlernt, wenn mit kontinuierlicher Verstärkung begonnen wird - auch Belohnung, wenn gezeigtes Verhalten dem gewünschten Verhalten nur ansatzweise entspricht --> "Shaping" (Bsp.: Training von Lawinenspürhunden) - wenn Reaktion dauerhaft erlernt werden soll --> auf intermittierende Verstärkung (höhere Löschungsresistenz) umsteigen --> variable Verstärkungspläne Extinktion/Löschung vorhandener Reaktionen - Intermittierende Verstärkungen --> höhere Löschungsresistenz, Verhalten wird auch nach längerer Zeit ausgeführt, wenn Verstärkung unterbleibt - Angler, der nach seltenen Fischart angelt, ist lange erfolglose Zeitintervalle gewohnt (variabler Intervallplan) --> setzt Bemühungen über längere Zeit fort --> Problem legt kognitive Interpretation nahe --> Angler der lange erfolgreich geangelt hat, könnte angesichts einer längeren Misserfolgsphase schlussfolgern, dass Fischbestand erschöpft ist, Angler der Misserfolg gewöhnt ist, wird nicht so schnell beunruhigt sein --> jedoch kognitive Begriffe, die Skinner ablehnt Reaktionsrate mit der Reaktion gezeigt wird = Häufigkeit mit der gewünschte Reaktion gezeigt wird = Indikator für Intensität des Verhaltens, höher wenn variable Verstärkung vorliegt - bei fixierten Intervallplänen nimmt Häufigkeit der Reaktion unmittelbar vor dem Verstärkungszeitpunkt zu, nach der Verstärkung ab - bei variablen Intervall- und Quotenplänen ist Reaktionsrate kontinuierlich und hoch - kognitive Erklärung: Erwartungen steuern das Verhalten - Skinners Erklärung: Verstärkungsplan steuert Verhalten 1. Kontinuierliche Verstärkung: hohe Akquisition 2. Intermittierende Verstärkung: hohe Löschungsresistenz 3. Variable Quoten-/Intervallpläne: hohe Reaktionsrate Premack-Prinzip = "erst die Arbeit, dann das Vergnügen" --> Selbstverstärkung - jeder Stimuli und jedes Verhalten, dass für Organismus einen pos. Wert hat, kann eine Verstärkung für Verhaltensweisen sein, die weniger pos. Wert, Verhalten nicht an spezifische Bedürfnisse gebunden, sondern an dessen Konsequenzen - z.B. lieber Fernsehen (pos. Wert) anstatt Buch für Uni zu lesen (neg. Wert) --> nach jedem Kapitel, 1/2 h fernsehen - wahrscheinliches Verhalten wird zum Verstärker von unwahrscheinlichem Verhalten Empirische Belege - experimentelles Paradigma - hungriges VT wird in Skinner Box gesetzt - 1) Hebel oder Kontaktplatte, die auf Berührungen des Tieres reagiert - 2) Ankunftsbehälter für flüssige oder feste Nahrung - 3) Signallampe, vom VL regelbar - VT erkundet Box, wird durch Zufall Hebelmechanismus auslösen, Häufigkeit mit der dies innerhalb einer bestimmten Zeitspanne geschieht = Grundrate, base-line-level - zu Beginn der Verstärkungsrate: Aktivierung des Futtermagazins --> Auslösen des Hebels wird verstärkt, je nach Verstärkungsplan --> VT zeigt Reaktion häufiger - Beginn der Löschungsphase mit Deaktivierung des Futtermagazins (keine Verstärkung mehr) - untersuchbar, wie schnell Reaktion erlernt wird (Akquisition) und wie lange es dauert bis sie wieder gelöscht wird (Extinktion) --> AVs

- VL kann Verstärkung modifizieren --> wann und wie oft bekommt VT Futter - UVs: Verstärkungspläne, AVs: Akquisition, Löschungsresistenz, Reaktionsrate - Verstärkungshäufigkeit und Löschung: - Untersuchung inwiefern Anzahl der Verstärkungen Verhalten während der Löschungsphase beeinflusst - UV: Anzahl der vorausgehenden Verstärkungen, Löschungsphase begann nach Verstärkung für eine richtige Reaktion oder für 250 richtige Reaktionen - nach Beginn der Extinktionsphase: VT mit nur einer Verstärkung --> 60 weitere Reaktionen, nach 250 Verstärkungen --> 180 weitere Reaktionen - 1) Erhöhung der Anzahl der Verstärkungen --> Vervielfachung der Löschungsresistenz - 2) keine lineare Beziehung zwischen Verstärkungshäufigkeit und Löschungsresistenz, eine Verstärkung führt zu hoher Anzahl von operantem Verhalten Abergläubisches Verhalten - Abergläubisches Verhalten entsteht, wenn beliebiges Verhalten zufällig mit Verstärkung gekoppelt wird - angenommen es wird der zufällige Blick einer Taube an den Käfigboden der Versuchsbox verstärkt -> VT zeigt Reaktion einmal pro Minute in der nächsten Stunde --> Verhalten ist abergläubisch, weil es keine funktionalen Verbindungen zur Verstärkung hat (anders als bei Bestätigung eines Hebels) - Umstand, dass abergläubisches Verhalten nur zufällig, das heißt intermittierend verstärkt wird, macht es sehr löschungsresistent Anwendung des Systems - Anwendung in Erziehung, Unterricht, klinischen Psychologie Training von Tauben für Rettungsflüge der Küstenwache (Simmons, 1981) - Tauben: Blickwinkel von 60°-80° --> Training: Reaktion auf das Orange von Rettungswesten, operante Konditionierung auf Farbe Orange (Beginn mit kontinuierlicher Verstärkung --> dann intermittierende) --> Picken auf Sensor, wenn Taube eine Rettungsweste im Meer erblickt => etabliertes Verhalten auch ohne Belohnung - bei Einsätzen insgesamt 3 Tauben in durchsichtigen Boxen an der Unterseite des Hubschraubers --> sobald eine der Tauben den Sensor betätigt fliegt er in diese Richtung Operantes Konditionieren im Klassenzimmer (Schmidt & Ulrich (1969)) - Sportunterricht als Belohnung - Klasse 4 mit 29 Schülern, Experiment bestand aus 4 Phasen, in denen Geräuschpegel gemessen wird (AV) - Phase I: Erfassung der Basisrate des Geräuschpegels - Verstärkung: verlängerter Sportunterricht (UV) --> Premack Prinzip, Phasen bestanden aus mehreren Unterrichtsstunden - Belohnung, wenn Geräuschpegel unter 42 Dezibel sinkt - Phase II: Einführung der Verstärkung: Geräuschpegel sinkt - Phase III: Löschungsphase (ohne Verstärkung) --> Geräuschpegel steigt bis fast auf das ursprüngliche Niveau (erlerntes Verhalten etw. verankert - Phase IV: erneute Verstärkung --> Geräuschpegel sinkt Wertmarkensystem (Ayllon & Roberts (1974)) - Ziel: Verbesserung der Leseleistung einer 5. Klasse und Verringerungen von Störungen im Unterricht - Ausgangsniveau: 40%, Störvariablen: 50 % - Schüler erhielten je nach erbrachter Leistung Wertmarken (s. a. Tabelle 4.3, S. 60: Motivationspsychologie Kompakt - Rudolph, 2009) - Ergebnis: Leseleistung steigt auf 85%, Störungen sinken auf 5% - Einführung operanter Prinzipien (Belohnungen) mittels Premack-Prinip

- wenn Belohnung ausbleibt --> Leseleistung bleibt, da erlernt Operantes Konditionieren im Klinischen Kontext (Ayllon & Azrin (1965)) - Wertmarkensystem bei schizophrenen Patienten - selbstständiges Verhalten wurde belohnt - Phase I: Belohnung, Phase II. keine Belohnung, Phase III: erneute Belohnung - Ergebnisse: Phase I: Selbstständigkeit stieg von 0% auf 50%, Phase II: Selbständigkeit singt aufs Anfangsniveau, Phase III: wieder 50% Skinners System und Freuds Psychoanalyse Gemeinsamkeiten: - breite öffentliche Beachtung, Determinismus, rationales und irrationales Verhalten - Freud: Gedanken determinieren Verhalten (psychischer Determinismus), Erfahrungen, Es, Ich, Über-Ich ausgeglichen vs. Konflikte - Skinner: Lernerfahrung determiniert, Verstärkungsgeschichte des Individuums Unterschiede: - Ursachen irrationalen Verhalten , mentale Konzepte (Es, Ich , Trieb, Motivation) als "explanatory fictions" - "explanatory fictions": Bsp. Angst vor Bär im Wald --> Freud: Flucht aus Angst, Skinner: Flucht, um nicht gefressen zu werden --> "explanatory fictions": verführen uns; sehen aus, als seien sie Erklärungen, aber eigentlich unbrauchbar (kein freier Wille) Freud'sche Position: S --> C (z.B. Konflikte, Wahrnehmungsabwehr, Verdrängung) --> R Bsp.: Vater erwischt Sohn beim masturbieren (S) --> Scham (C) --> Scham nackt zu sein (R) Skinner'sche Position: S

C R - Stimuli führen zu Denken (C) ---> Kognitionen sind jedoch unwichtig, keine Kausalität: "Kognitionen stehlen den wahren Determinanten des Verhaltens die Show" --> in Wirklichkeit steuern Konsequenzen des Verhaltens (S) das weitere Verhalten (R) Stichwort Repression: Freuds Konzept

Skinners Analyse

Repression: Unerfüllte Wünsche und Triebkräfte des Es, deren Ausdruck den Normen des Über-Ich entgegensteht, können unbewusst aktiv bleiben und finden dann einen verschleierten oder modifizierten Ausdruck in anderen Verhaltensweisen, deren Ausdruck weniger unerwünscht oder schmerzhaft ist.

Die Vorstellung, dass innere mentale Kräfte gegeneinander antreten und einen Konflikt austragen, wird als unwissenschaftliche Spekulation abgelehnt. Statt dessen wird ein bestraftes Verhalten eine geringere Auftretenswahrscheinlichkeit erhalten; andere, dem gleichen Zweck dienende Reaktionen werden in ihrer Auftretenswahrscheinlichkeit steigen.

Stichwort Unbewusste Konflikte Freuds Konzept

Skinners Analyse

Unbewusste Konflikte: Widersprüchliches oder unerklärliches Verhalten reflektiert Freud zufolge die Konflikte zwischen den Persönlichkeitsinstanzen. So kann eine Person mehrere einander widersprechende oder sich ausschließende Wünsche haben.

Konflikt ist Skinner zufolge ausschließlich die Folge von inkompatiblen Verstärkungskontingenzen. Der Konflikt wird vom Inneren der Person nach außen verlagert, in die Umweltbedingungen, in denen sich das Individuum befindet.

Stichwort Angst: Freuds Konzept Die Bedeutung von Emotionen am Beispiel der Angst: Angst ist Freud zufolge ein aversiver interner Stimulus, der vom Ich erzeugt wird, wenn die Triebkräfte des Es und die Einschränkungen durch das Über-Ich übermächtig werden.

Skinners Analyse (...) Angst ist wie alle Emotionen ein unwillkürliches, konditioniertes Verhalten. Diese Emotionen haben keinen kausalen Status. Sie mögen zwar adaptiv sein (wir fliehen, wenn wir körperliche Anzeichen von Angst wahrnehmen), aber wir fliehen, um nicht gefressen zu werden, und nicht weil wir die Angst reduzieren möchten.

Fazit: Skinner leugnet keine mentalen Prozesse, aber unser Verhalten ist nur durch dessen Konsequenzen bestimmt, mentale Prozesse sind nicht Elemente einer kausalen Kette zur Vorhersage des Verhaltens --> es sind Auswirkungen/Effekte keine Ursachen Ethische Fragen - durch operante Prinzipien, lässt sich so gut wie jedes Verhalten verstärken - bei Patienten bspw. in einer psychiatrischen Klinik, sind Selbstbestimmungsrecht und - fähigkeit eingeschränkt - Selbstbestimmung: besonders bei Erziehungsfragen und bei seelisch kranken Menschen ist fraglich: wann sollte Person selbstschädigendes Verhalten aufgeben, wo beginnen Willkür und ungerechter Freiheitsentzug? Eigen- und Gegenkontrolle - menschliche Fähigkeit: sich eigene Umweltkontingenzen selbst setzen und selbstbestimmt handeln - Selbstverstärkung ist wichtiger als externe Verstärkung - Organisierte Institutionen (Regierung, Religion, ökonomische Systeme, Erzieher, Therapeuten) üben machvolle Kontrolle aus - Kontrolle ist Verstärkung der Kontrollausübenden --> neg. und ausbeutende Wirkung auf Kontrollierte - Kontrollierte versuchen sich Einfluss zu entziehen (Gegenkontrolle) - widerstreitenden Kräfte stehen sich in einem Äquilibrium gegenüber - manche Personen/Gruppen sind zu schwach um Gegenkontrolle selbst aufzubringen --> externe Gegenkontrolle von unabhängiger Instanz (z.B. Deutscher Kinderschutzbund) nötig...


Similar Free PDFs