Vorlesung 9 - Lernen mit Multimedia PDF

Title Vorlesung 9 - Lernen mit Multimedia
Course Allgemeine Psychologie I
Institution Universität Kassel
Pages 7
File Size 559.8 KB
File Type PDF
Total Downloads 40
Total Views 137

Summary

Lernen mit Multimedia - Wintersemester...


Description

Lernen mit Multimedia Vorlesung 9 – 20. Dezember 2018 __________________________________________________________________________________

Kognitive Wende • Krise des Behaviorismus  Sputnik-Shock • Zuwendung zu höheren kognitiven Funktionen - Gedächtnis und Lernen - Problemlösen/Denken - Textverarbeitung • Aktuelles (spätes) Beispiel: Lernen mit Multimedia

Was ist Lernen mit Multimedia? • Lernen: Absichtsvolle oder nicht absichtsvolle Aneignung von Wissen und Fertigkeiten. • Multimedia: Information unterschiedlicher Modalität (z.B. auditiv, visuell, haptisch, etc.) und Kodalität (z.B. sprachlich, bildhaft) muss integriert werden. • Beispiele: Texte mit Bildern; Tonfilme, etc.; Lehrer mit Tafel; Sprecher gestikuliert  z.B in Vorlesung: Person die Informationen auditiv vermittelt, unterstützt mit Power Point, bei der geschriebene Sprache präsentiert, als auch bildhaft mit Bildern und Grafiken gearbeitet wird)  Nicht nur Computerbasiertes Lernen  Integration mehrerer unterschiedlicher Modalitäten und Kodalitäten

Cognitive Theory of Multimedia Learning (CTML) – Mayer 2001, 2009

Ablauf – Bildverarbeitung -

Strang  Informationsverarbeitungsprozess Am Anfang Multimediale Präsentation: Aufteilung in Wörter und Bilder Information wird weiter an ein sensorisches Gedächtnissystem geleitet: entweder akustisches oder visuelles sensorisches Register Durch Aufmerksamkeitszuwendung  Übertragung an Arbeitsgedächtnis Das Arbeitsgedächtnis ist modalitätsspezifisch aufgeteilt für Laute und für Bilder  ähnlich wie phonologische Schleife und visuell-räumliches Notizblocksystem Im nächsten Schritt wird ein verbales Modell (bereits mit inhaltlicher Information angereichert) und bildhaftes Modell erstellt Es wird ein gemeinsames integriertes Situationsmodell aus verbalem und bildhaftem Modell erstellt  unter Zuhilfenahme von Vorwissen Letzter Schritt: Resultat aus vorherigem Schritt wandert ins Langzeitgedächtnis 1

-

ähnlicher Vorgang, nur auf der anderen Seite aktiv zwei getrennte Pfade für gesprochene Wörter und Bildverarbeitung  daher Integration problemlos möglich Wörter werden über Augen aufgenommen (geschrieben)  weitere Verarbeitung von visuell-

sensorisches System  dann wird visuell-sensorisches Arbeitsgedächtnissystem in Betrieb genommen  dann Rekodierprozess: Buchstaben werden phonologisch zu Lauten rekodiert

Exemplarische Behandlung • Modalitätseffekt  Modalitätseffekt dockt an eben gesehenem Modell an • Multimediaeffekt  Multimodalität von Vorteil: Besseres Lernen, wenn Texte und Bilder präsentiert werden (anstatt nur Texte oder nur Bilder)

Der Modalitätseffekt beim Lernen mit Multimedia Beispiel: Erklärung wie Blitz entsteht (bewegte Animationen mit Text) UV: Sprachliche Information wurde entweder auditiv oder visuell dargeboten. AVs: Wiedergabe (Free recall); Transfer • Arbeit mit Audiodateien, Informationen auditiv hören = Modalitätseffekt  dieser wirkt sich positiv auf Wiedergabe und Transferaufgaben aus = bessere Ergebnisse

Das grundlegende Konzept 2

• Das grundlegende Konzept der CTML ist Cognitive Load • Visuo-spatial load Hypothese: Kognitive Überlastung des visuell-räumlichen Arbeitsgedächtnisses durch die Präsentation geschriebener Sprache und Bilder/Animationen. Visuelle Textdarbietung: VSSP wird überlastet, wenn geschriebene Sprache und Bilder gleichzeitig im Gedächtnis gehalten werden müssen  overload-situation = Doppelbelastung  Kognitive Überlastung  Leistungsbilanz ist ruiniert, denn beide müssen kurz im gleichen Subsystem repräsentiert werden (im Arbeitsgedächtnissystem für Bilder bzw. nach Baddley im visuell-räumlichen System = VSSP)

Auditive Textdarbietung: direkte Aufteilung in VSSP und Phonologische Schleife  Informationen können besser integriert werden  sind nicht überlastend Laut Baddley: Visueller und auditiver Input landen beide gleichermaßen in phonologischer Schleife  Misstrauen von Rummer und einigen anderen!

Illustration der Visuo-Spatial Load Annahme anhand des Arbeitsgedächtnismodells von Baddeley & Hitch (1974)

Baddeleys Phonologische Schleife

Der visuelle Input wird genauso über den Rehearsal-Process eingelesen wie der auditive Input  gesprochene Sprache und visuelle/schriftliche Sprache landen im gleichen System = der phonologischen Schleife

3

-

Wir sind fester Überzeugung, dass geschriebener Text auf der linken Seite nichts zu suchen hat, er wandert gleich in phonologische Schleife Wir glauben nicht an Visou-spatial load Hypothese!  Voraussetzungen sind nicht gegeben Leseprozess ist so hoch automatisiert, dass wir es nicht lange speichern müssen  wir lesen direkt aus dem sensorischen Register

Wie kommt dann dieser Effekt Zustande, wenn Doppelbelastung gar nicht besteht?

Verbleibende Erklärung Split Attention Annahme (zur Erklärung des Modalitätseffekts bei simultaner Darbietung)  Aufmerksamkeitspsychologie

Gesicht von oben: Augen fokussieren Bild, Text wird über Ohren aufgenommen  Gleichzeitige/simultane Verarbeitung möglich  Bei Text und Bild visuell  muss nacheinander geschehen  Leistung wird reduziert x

ABER!

Wiedergabe simultan, als auch nacheinander/sequentiell! Dieser Befund (sequentielle Darbietung) widerlegt Split Attention und spricht für Visou-spatial load Hypothese

Ausgangsfrage Warum kommt es dann (auch) bei sequentieller Darbietung von Texten und Bildern zu einem Modalitätseffekt?  wenn visou-spacial load Hyptohese angeblich nicht stimmt und man Split Attention ausschließen kann

Alternative Erklärung? Auditiver Recency Effekt (zur Erklärung des Modalitätseffekts – auch – bei sequentieller Darbietung) • Auditory recency effect  immer gültig, unabhängig davon, was zusätzlich noch aufgenommen wird (visuell) • Genereller Vorteil von auditiver Information  unabhängig davon, dass man ein Bild zusätzlich sehen muss • Satzende ist im englischen immer informativer als der Rest • Beim schriftlichen kann man sich das Ende schlechter merken, als bei auditiven Informationen  Nachhall kann man nutzen  diesen kann bei Bildbetrachtung nutzen (denn zuerst Präsentation vom auditiven Text, anschließen das passende Bild dazu) = mögliche Erklärung

Annahmen WICHTIG 1. Split Attention Effekt NUR bei simultaner Darbietung von Texten und Bildern 2. Auditiver Recency Effekt • Nur die letztgenannte Information wird bei auditiven Texten besser behalten (enkodiert) als bei visuellen.

-

• Findet sich unabhängig davon, ob Bild und Text simultan, sequentiell oder ob nur der Text dargeboten wurde ≠ visou-spacial load Hypothese Immer wirksam, wenn auditive Information präsentiert wird, unabhängig davon, ob auch noch zusätzlich ein Bild verarbeitet werden muss Möglichkeit nur mit Texten zu arbeiten oder Text + Bilder (Multimedia) Zusätzliche Bedingung nur Text  kein Unterschied, gleiches Ergebnis wie bei Text und Bildern zusammen = Grund: Selber Effekt

Visou-spacial load Hypothese -

Text und Bild kommen sich im visuell-räumlichen System in die Quere Gilt also nur dann, wenn Text und Bild nicht, aber wenn nur Text präsentiert wird

Versuchsdesign - Rummer 2 x 3 (zwischen Vpn) Design UV1: Textmodalität (auditv vs. visuell) UV2: Abfolge (simultan vs. sequentiell vs. nur Text) AV1: Bildrekognition (hits – false alarms) AV2: Antwort auf textbezogene Fragen

Ablauf -

Material (Sternbild) wird auf unterschiedliche Weise präsentiert Simultane Darbietung: Text und Bild gleichzeitig  danach inhaltliche Fragen  Bildrekognition – ist dies das gleiche Bild? = Bilderkennung ist besser = Split Attention Sequentielle Darbietung: Erst Text, dann Bild  danach Fragen in unterschiedlicher Reihenfolge (ACHTUNG: letzte Info ist auditiv besser zu merken) = kein Unterschied Nur Textbedingung: Text  dann inhaltliche Fragen (da kein Bild, daher keine BildRekognitionsleistung möglich)

Bildrekognition • Sequentielle Bedingung: Bei Text und Bild kein statistischer Unterschied • Simultane Bedingung: Bei der auditiven Textdarbietung ist Bilderkennung besser, als bei der visuellen Textdarbietung  Split Attention Hypothese 

5

Antworten auf die textbezogenen Fragen Fünf Informationen im Text  An welcher Position ist entsprechende Information genannt Multimediabedingung in den

Hypothese Nur auf Position 5 (letzte Position = bessere Merkleistung) sollte systematischer Vorteil bei auditiver Darbietung vorzufinden sein, auch dann, wenn nur der Text präsentiert wird, aber auch wenn Text und Bild simultan präsentiert werden  Auditory recency effect  Vorteil muss es an jeder Position zu sehen sein (genereller Vorteil)  Visoul-space Hypothese = Falsifikation des Modells  Texte und Bilder kommen sich im visuell-räumlichen System in die Quere (visuelle Darbietungen können sich nicht in die Quere kommen) Visuelle Präsentation geht auf Position 5 runter – Warum?  einige Personen könnten letzte Information nicht gelesen haben, da sie zu langsame Leser sind

Self-paced Presentation

Self-paced = man kann selbst bestimmen wann es weitergeht, dadurch werden alle, alles lesen  Anscheinend keine Begründung für den Abfall an Position 5, denn Effekt ist immer noch vorzufinden (Befundmuster genau gleich wie oben in der Mitte) = stabiler Effekt

DISKUSSION 1. Die Lernleistung ist besser, wenn mit Texten + Bildern gelernt wird als wenn nur Texte dargeboten werden (Multimediaeffekt). 2. Der systematische Nachteil für visuelle Texte + Bilder bei simultaner Darbietung lässt sich auf Split Attention zurückführen. 3. Auch beim Textbehalten lässt sich ein robuster auditiver Recency Effekt nachweisen (Replikationen). 4. Die visuo-spatial load Hypothese – und damit das Kernstück der CTML – muss abgelehnt werden.

Für Kinder oder langsame/ungeübte Leser hat visoul-space hypothese Bedeutung Denn kleine Kinder lesen nach Graphem-Phonem-Konversion  jedem Zeichen wird ein Laut zugewiesen Für alle anderen automatisierten Leser muss der rote Pfeil hinzugefügt werden (visuell-räumliches Arbeitsgedächtnis ist nicht nötig)!!

7...


Similar Free PDFs