Samenvatting bij de 5e druk van Cognition van Ashcraft en Radvansky (2024)

Table of Contents
Deel 1 Inleiding en definities Definities van geheugen en cognitie Korte geschiedenis van de cognitieve psychologie Cognitieve psychologie en informatieverwerking Deel 2 Cognitieve wetenschap Zeven belangrijke thema’s van cognitie Informatieverwerking: de oude theorie De moderne cognitieve benadering: Cognitive science Neurocognitie: het brein en cognitie samen Connectionisme Deel 3. Perceptie Visuele perceptie Deel 4 Aandacht Basale input aandachtsprocessen Gestuurde, vrijwillige aandacht Mentale mogelijkheden en bewuste verwerking Deel 5 Het korte termijn- of werkgeheugen Korte termijngeheugen: beperkte capaciteit Terughalen van informatie (retrieval) uit het korte termijn geheugen Het testen van werkgeheugen De impact van werkgeheugen op cognitie Deel 6 Het episodisch lange termijn geheugen Voorafgaande problemen Opslaan van informatie in het episodisch geheugen Het herinneren (retrieval) van episodische informatie Geheugenverlies en het impliciete geheugen Hoofdstuk 5: Het korte termijn- of werkgeheugen Deel 7 Semantisch lange termijn geheugen Priming binnen het semantisch geheugen Connectionisme en de hersenen Deel 9 Taal Linguïstische begrippen Fonologie Syntax Deel 10 Begrip van geschreven en gesproken taal Lezen Referentie, situatie modellen en gebeurtenissen Deel 11 Beslissen, beoordelen en redeneren Formele logica en redeneren Beslissen over dimensies Beslissingen in onzekere situaties Beperkingen in het redeneren Deel 12 Probleemoplossend vermogen Gestalt psychologie en probleemoplossen Inzicht en analogie Probleemoplossen: de basisprincipes “Means-end” analyse Verbeteren van je probleemoplossend vermogen
  • Deel 1 Inleiding en definities
  • Deel 2 Cognitieve wetenschap
  • Deel 3. Perceptie
  • Deel 4 Aandacht
  • Deel 5 Het korte termijn- of werkgeheugen
  • Deel 6 Het episodisch lange termijn geheugen
  • Deel 7 Semantisch lange termijn geheugen
  • Deel 9 Taal
  • Deel 10 Begrip van geschreven en gesproken taal
  • Deel 11 Beslissen, beoordelen en redeneren
  • Deel 12 Probleemoplossend vermogen

Back to top

Deel 1 Inleiding en definities

“Cognitive science”: verzamelnaam voor de studie van cognitieve processen (bestaande uit denken, taal & hersenen, herinneren, beredeneren en problemen oplossen) vanuit de samenwerking van bijv. de linguïstiek, neurowetenschap, informatica en psychologie.

Naast het beschrijven van de huidige stand van zaken in onderzoek naar cognitieve processen, wordt ook aandacht besteed aan de ontwikkeling van de huidige kennis en hoe deze kennis in het verleden vergaard is. “Weten hoe mensen denken” is natuurlijk ook belangrijk buiten de psychologie, aangezien cognitie alle aspecten van het menselijk leven en verschillende takken van kennis en wetenschap beïnvloedt.

Denk ter illustratie eens aan de talloze (veelal automatische) mentale processen die komen kijken bij het beantwoorden van een simpele vraag die op papier staat. Bijvoorbeeld: perceptie (zien en herkennen van letters), taal (herkennen van woorden en zinnen), geheugen (weten wat woorden betekenen en kennis die nodig is om de vraag te beantwoorden) en “problem solving” en overige processen (waarom wordt deze vraag gesteld, is het een strikvraag, weet ik het antwoord, kan ik het deduceren). Mentale processen gebeuren ook zonder bewustzijn, zijn zeer complex in verband met fysieke activiteit, perceptie en mentale acties.

Definities van geheugen en cognitie

Geheugen: mentale processen voor het verkrijgen, opslaan en later terughalen van informatie (“encoding”), alsmede het mentale opslagsysteem (“storage”) dat deze processen mogelijk maakt. Vervolgens wordt de informatie gebruikt (“retrieval”).

Cognitie: een verzameling mentale processen en activiteiten die perceptie, geheugen, denken en begrijpen mogelijk maken, alsmede het bewuste gebruik van deze processen.

De definitie van cognitie gaat vooral uit van alledaagse, normale cognitieve processen. Abnormale cognitie, zoals bijvoorbeeld in schizofrenie, wordt weinig onderzocht maar wordt ook niet “uit de definitie gegooid”.

Kritiek: Neisser vindt dat teveel onderzoek alleen over visuele en auditieve perceptie gaat en dat de andere zintuigen te weinig onderzocht worden. Ook twijfelt hij, door de veelal steriele en gecontroleerde onderzoekssetting, aan de ecologische validiteit (oftewel: zouden de resultaten ook in niet-experimentele, dagelijkse situaties gevonden worden).

Aangezien zelfs de simpelste experimenten al enorm complexe processen onthullen, lijkt in de eerste fase van onderzoek een reductionistische aanpak gerechtvaardigd: het proberen te begrijpen van complexe fenomenen door ze in componenten op te delen. Je mag wel verwachten dat die componenten uiteindelijk samengevoegd zullen worden om het geheel te beschrijven.

Korte geschiedenis van de cognitieve psychologie

De oude Grieken, zoals Aristoteles en Homerus, toonden al interesse in hoe het brein werkt en hoe deze werking verbeterd kan worden. Volgens Aristoteles was de geest een “tabula rasa”, oftewel een onbeschreven blad, dat beschreven werd door ervaring. Hij gaat uit van het empirisme wat er vanuit gaat dat observatie de basis is van de wetenschap. Door de geschiedenis heen bleef de interesse voor de werking van het menselijk denken bestaan (denk aan Descartes: “Cogito ergo sum”), maar het daadwerkelijke begin van de psychologie als wetenschap ligt halverwege de jaren 1800. In deze periode werd de wetenschappelijke methode alom toegepast en vonden er grote ontwikkelingen plaats op het gebied van de medische- en natuurwetenschappen.

Wilhelm Wundt (1832-1920): stichtte het eerste laboratorium voor psychologische experimenten en leidde de eerste lichting psychologen op (waaronder James, Munsterberg, Spearman, Catell enTitchener). Hij schreef het boek ”Principles of Physiological Psychology” en richtte het eerste journal op: Philosophical Studies.

Hij gebruikte introspectie of zelfobservatie om meer te weten te komen over bewuste processen en ervaringen. Introspectie is een methode waarbij je naar binnen kijkt, verslag doet over innerlijke sensaties en belevingen.

Edward Titchener: processen die niet met de methode van introspectie onderzocht konden worden (zoals psychopathologie, sociale psychologie) waren geen puur psychologische processen. Strenge training voor introspectie, waarbij de “stimulus error” (het verwarren van een sensatie met de mentale perceptie ervan) voorkomen moest worden. Bij twijfel besliste Titchener zelf of de resultaten valide waren.

Titchener begon de stroming van het structuralisme: het bestuderen van de structuur van de bewuste geest (“mind”); sensaties, beelden en gevoelens die de basiselementen van de structuur van de geest zijn. Er ontstonden conflicten met andere onderzoekers, bijvoorbeeld over het bestaan van “imageless thought”, en de interesse voor structuralisme vervloog.

Hermann von Ebbinghaus: Tijdgenoot van Wundt, maar probeerde met meer objectieve methodes cognitie (vooral geheugen) te onderzoeken. Hij deed dit door herhaaldelijk rijtjes met onzin-woorden, nonsense-syllables, (om associaties te voorkomen) uit zijn hoofd te leren en bij te houden hoeveel minder pogingen hij bij elke trial nodig had om het rijtje te leren. De ideeën en methodes van von Ebbinghaus horen bij de weinige die nog steeds in vergelijkbare vorm gebruikt worden in de psychologie.

William James: een Amerikaanse tijdgenoot van Wundt, die beïnvloed is door Darwin hield zich bezig met functionalisme: het belang van de functies van het bewustzijn, in plaats van de structuur ervan. Introduceerde het idee van twee soorten geheugen: een snel beschikbaar, bewust geheugen en een groter, meestal verborgen of passief geheugen voor gebeurtenissen uit het verleden. James hield niet zo van experimenten en werd daardoor niet altijd even gewaardeerd door tijdgenoten, maar zijn ideeën hebben veel invloed gehad op de huidige psychologie.

Behaviorisme en Neobehaviorisme

Hoewel ook andere psychologische stromingen gelijktijdig verder ontwikkelden in de eerste helft van de 20e eeuw, was het vooral het behaviorisme dat zijn stempel drukte op de Amerikaanse psychologie in die periode.

Watson:verliet het structuralisme en functionalisme en kwam met het behaviorisme, waarbij de observatie van waarneembaar gedrag centraal staat en niet vage, onwetenschappelijke noties als gedachten en bewustzijn.

Binnen het behaviorisme vonden echter ook ontwikkelingen richting de cognitieve psychologie plaats, zoals het neo-behaviorisme of “mediated neobehaviorism”: het idee dat er niet-observeerbare, mediërende processen plaatsvinden.

Vanaf 1890 werden veel psychologen antimentalist. Een student van Titchener, Boring, omschreef dat het leek alsof heel Amerika behaviorist was geworden. In situaties waar mentale activiteit echt niet weggeredeneerd kon worden, sprak Watson over “implicit behavior”: een interne, simpele versie van uiterlijk gedrag (een soort in jezelf praten).

Skinner, die in de jaren ‘40 de kop opstak als belangrijke behaviorist, nam een iets milder standpunt aan, namelijk dat mentale processen wel bestonden maar dat ze niet observeerbaar waren en daarom geen plaats hadden in de wetenschappelijke psychologie.

De populariteit van het behaviorisme was waarschijnlijk te wijten aan het feit dat psychologie met deze methode meer als een echte wetenschap geaccepteerd werd en omdat er een eind kwam aan de discussie over het structuralisme.

Nieuwe theorieën en methodes

Vanaf ongeveer 1940 begon het imperium van het behaviorisme af te brokkelen, er was te weinig vooruitgang en interesse in belangrijke vraagstukken. In onderzoek naar dieren werd gevonden dat aangeleerd gedrag regelmatig overstemd werd door instinctief gedrag, en in de tweede wereldoorlog bleek behavioristische psychologie weinig praktisch toepasbaar te zijn op menselijk functioneren. Zaken als perceptie, aandacht, beslissingen nemen en het bedienen van complexe apparaten waren nu belangrijker dan het domweg aanleren van stimulus-respons. Het behaviorisme schoot duidelijk tekort.

Psychologen richtten zich steeds meer op technieken en theorieën buiten het behaviorisme. De “verbal learning” beweging, die was verdergegaan in de traditie van von Ebbinghaus, was sterk a-theoretisch. De verbal learning methode is experimentele psychologie die ingaat op het leren van verbaal materiaal, dat bestaat uit letters, no-nonsense woorden en soms woorden. Het richtte zich vooral op succesvolle lijnen in onderzoek en ontkende niet het bestaan van mentale processen zoals het behaviorisme dat wel deed. Tijdens de onderzoeken naar verbaal geheugen werd ontdekt dat associatieprocessen een belangrijke rol spelen, en mentale processen zoals repeteren, organisatie, opslag en “retrieval” van informatie werden beschreven.

De nadruk lag op een goede, wetenschappelijk methodologie, welke nog steeds nuttig blijkt in de cognitieve psychologie.

Chomsky, een linguïst, opende de aanval op het behaviorisme en stelde dat de terminologie van het behaviorisme blind toegepast werd op het leren van taal, zonder enige inhoudelijke verklaring te geven. Kortom: lege beschrijvingen van leerprocessen in taal met termen uit het behavioristische laboratorium doen geen recht aan de complexiteit en de mechanismen van het aanleren van een taal.

Al deze ontwikkelingen zorgen voor een transitie van het behaviorisme naar cognitieve psychologie

Cognitieve psychologie en informatieverwerking

Het startpunt van de cognitieve psychologie ligt rond 1960. Met de bovengenoemde ontwikkelingen verscheen een interesse in mentale processen die overduidelijk een belangrijke rol speelde in het dagelijks functioneren, zoals associatie, geheugen en organisatie. Belangrijke onderzoeken waren bijvoorbeeld dat van Bousfield naar het samenclusteren van te onthouden woorden, en Cherry en Broadbent’s onderzoek naar aandacht en alertheid.

Ook de ontwikkeling van de computer was een belangrijke invloed: een machine vergelijkbaar met de mens als uitgegaan wordt van stimulus-respons, met een intern proces in het midden. Volgens het behaviorisme was dit proces in het midden onobserveerbaar/onmeetbaar in mensen en dus niet relevant in onderzoek. In een computer echter was dit interne proces geprogrammeerd en wist men dus precies hoe het werkte. Waarom zouden menselijke processen ook niet volgens bepaalde principes werken?

Computers manipuleren symbolen, en op een conferentie van Newell en Simon in 1958 werd het idee geopperd dat dit voor mensen ook wel eens het geval kon zijn. Dit maakte het bestuderen van cognitieve processen aantrekkelijk: deze waren niet meer slechts hypothetische ideeën, maar konden nu wetenschappelijk onderzocht worden met behulp van computeranalogieën.

Drie aannames van de cognitieve psychologie

1) Mentale processen bestaan

  • Dat wat behavioristen juist ontkennen, namelijk de hogere mentale processen, wordt door de cognitieve psychologie onderzocht.

2) Mentale processen kunnen wetenschappelijk onderzocht worden

  • Het gebruik van de wetenschappelijke, empirische methode is hierbij cruciaal: objectieve en repliceerbare methodes dienen gebruikt te worden, waarbij subjectieve invloeden (zoals bijv. bij de introspectie-methode) vermeden moeten worden.

3) Mensen zijn actieve informatieverwerkers

  • Miller noemt mensen “informavores”, oftewel wezens die actief informatie selecteren, verwerken, opslaan en gebruiken. Wanneer er geen externe stimulatie plaatsvindt houden we onszelf bezig met interne mentale stimulatie (nadenken, dagdromen). Mensen zijn niet, zoals behavioristen beweren, passieve stimulus-respons machines.

Deze drie aannames zijn metatheoretisch: ze overkoepelen elke specifieke theorie binnen de cognitieve psychologie.

Back to top

Deel 2 Cognitieve wetenschap

De laatste decennia is de focus van de cognitieve psychologie verschoven van bijvoorbeeld het kwantificeren van geheugenprocessen (leercurves etc.) naar menselijk redeneren, schade in het cognitief functioneren na hersenletsel, en dergelijke. Door deze verschuiving van focus in onderzoek is het belangrijk om niet alleen de algemene onderzoeksvragen in het oog te houden, maar ook wat ze precies dienen te onderzoeken en hoe. Dit noemt men metatheorie: een set aannames en richtlijnen die onderzoekers vertelt wat te onderzoeken en welke valkuilen te vermijden.

Lange tijd was de gebruikte metatheorie binnen de cognitieve psychologie die van de “information-processing” benadering: het gecoördineerde gebruik van actieve mentale processen binnen een geheugensysteem dat uit meerdere componenten bestaat. De term information-processing klinkt beperkt omdat hier vroeger alleen sequentiële (één voor één) mentale processen mee werden bedoeld.

Een groot voordeel van de huidige “cognitive science” is dat deze samenwerkt met verschillende disciplines, zoals neurowetenschappen. Nieuwe beeldvormingtechnieken voor de hersenen (scans e.d.) en een steeds verder verbeterend begrip van hoe de hersenen functioneren zijn belangrijke ontwikkelingen.

Zeven belangrijke thema’s van cognitie

1) Aandacht, is gedeeltelijk onder controle, gelimiteerd in kwantiteit

2) Data-gestuurde vs. concept-gestuurde processen (bepaald door input uit de omgeving of door eigen bestaande kennis) = botom-up

3) Representatie (hoe wordt kennis “geformatteerd” of gecodeerd in het geheugen?)

4) Impliciet (onbewust) versus expliciet (bewust) geheugen

5) Metacognitie (bewust zijn van eigen mentale processen en actieve, doelgerichte sturing ervan)

6) Hersenen (relatie van fysieke hersenen tot mentale processen, bijvoorbeeld lokalisatie)

7) Embodiment (de manier waarop we over informatie nadenken en dit representeren, geeft het feit weer dat we interactie nodig hebben met de omgeving en dit ons denken kan bepalen)

Fabriek-analogie met cognitieve psychologie

Als je van buitenaf een fabriek bekijkt en wil weten wat er binnen precies gebeurt, kun je een aantal zaken bestuderen, zoals: wat gaat er in de fabriek naar binnen (bijv. hout, metaal) en wat komt er weer uit (meubels, auto’s).

Daarnaast kun je kijken wat er gebeurt als je de input-hoeveelheid of –snelheid verandert. Hoe heeft dit invloed op de snelheid en kwaliteit van de output? Is er een minimale input nodig om überhaupt output te krijgen? Is er een maximaal mogelijke output?

Het meten van mentale processen

Twee belangrijke maten voor het meten van mentale processen:

Tijd:

Hoe lang iemand er over doet een taak uit te voeren. Vaak wordt reactietijd (RT) gebruikt: de tijd tussen het aanbieden van een stimulus en de respons die gegeven wordt. Donders: niet alleen onderscheid tussen personen op basis van RT, maar door naar RT’s voor verschillende taken te kijken kan er ook veel ontdekt worden over de werking van mentale processen.

Voorbeeld: de reactietijden voor simpele vermenigvuldigingen (2 x 3 en 6 x 9) in studenten en lagere scholieren (figuur 2.1). Twee effecten worden duidelijk: scholieren doen langer over de sommen dan studenten, en RT’s voor beide groepen worden langer naarmate grotere getallen vermenigvuldigd moeten worden.

Dit verschil laat zien dat, hoewel iedereen alle tafels uit zijn hoofd moet leren op school, het vermenigvuldigen van kleine getallen toch sneller gaat, wat erop wijst dat men voor het antwoord niet alleen op gestampte rijtjes vertrouwt maar kennelijk ook berekeningen of checks uitvoert, welke ingewikkelder zijn voor grote getallen.

Nauwkeurigheid:

Hoe nauwkeurig iemand een taak uitvoert, bijvoorbeeld het aantal woorden dat iemand onthoudt.

Voorbeeld: een rijtje woorden voorgelezen krijgen en er zoveel mogelijk proberen te onthouden. Je moet 10 tot 30 seconden wachten voordat je de woorden herhaalt, en in die tijd moet je terugtellen in stappen van 3. Wanneer we kijken naar welke woorden onthouden worden, heeft dit te maken met de positie van de woorden in de lijst (figuur 2.2). Gebruiken we andere geheugentechnieken voor woorden die vooraan of achteraan in de lijst stonden?

In hoeverre zijn associaties belangrijke voor het geheugen? Worden er ook foute woorden genoemd? Hebben deze woorden te maken met het woord dat eigenlijk onthouden had moeten worden (bijv: appel in plaats van peer (associatie met betekenis) of heer in plaats van beer (fonetische associatie))?

Daarnaast andere soorten nauwkeurigheid, bijv. hoe goed kun je een paragraaf samenvatten en alleen de kern reproduceren.

Analogieën

Vanuit de nieuwe samenwerking met andere vakgebieden ontstonden een aantal interessante analogieën.

Channel capacity, heeft een gelimiteerde capaciteit

(Vanuit communicatietechniek) Elk kanaal of fysieke verbinding waarlangs informatie wordt gezonden/verwerkt heeft een maximale capaciteit. Dit geldt wellicht ook voor mensen, wat bijvoorbeeld vragen oproept rond het maximum aantal informatiebronnen waar mensen tegelijkertijd hun aandacht op kunnen richten, of er een maximale capaciteit is en wat er gebeurt als die overschreden wordt.

Computer analogie, heeft een gelimiteerde attentie

Menselijke informatieverwerking vertoont misschien wel overeenkomsten met de stapsgewijze computaties die een computer maakt tussen input en output. Voordeel van de computeranalogie is dat theorieën expliciet geconcretiseerd moeten worden, willen ze via een computerprogramma onderzocht kunnen worden. Er is dus geen ruimte voor de vaagheden die nogal eens de kop opsteken in verbale theorieën. De snelheid van huidige computers maakt het mogelijk om zeer ingewikkelde modellen te kunnen testen.

Informatieverwerking: de oude theorie

Het standaard model van informatieverwerking (gebaseerd op geheugenmodel van Atkinson en Shiffrin) beschrijft drie soorten geheugen: sensorisch geheugen, korte termijn- en lange termijn geheugen. Stimuli uit de omgeving komen binnen en worden verwerkt oftewel gecodeerd (getransformeerd naar een bruikbare “mentale vorm”) door de verschillende sensorische kanalen (sensorisch geheugen). Het relevante gedeelte van deze stimuli wordt naar het korte termijngeheugen gestuurd. Dit geheugen stuurt informatie naar het lange termijn geheugen, kan informatie uit het lange termijngeheugen ophalen en heeft diverse controlemechanismen om al deze informatie te verwerken en uiteindelijk een vorm van output te leveren. Zie figuur 2.3 voor een schematisch overzicht. Al deze stappen vergen tijd, en verschillende gradaties van complexiteit (van de stimulus of opdracht) vertalen zich naar verschillende reactietijden.

Procesmodellen

De theorie van Atkinson en Shiffrin is een goed algemeen uitgangspunt. In onderzoek is echter vaak behoefte aan specifiekere, meer gefocuste modellen om bepaalde cognitieve mechanismen te onderzoeken. Hiervoor werd dan een “process model” gemaakt: een hypothese over het specifieke mentale proces dat plaatsvindt wanneer een bepaalde taak wordt uitgevoerd.

Voorbeeld: de “lexical decision task”.

In deze taak worden woorden (bijv. appel) en non-woorden (ukkel) aangeboden, en er wordt getimed hoe lang een persoon erover doet te antwoorden of de aangeboden stimulus een bestaand woord is of niet. De non-woorden lijken wel op echte woorden qua spellingsregels, uitspreekbaarheid etc. Een procesmodel voor deze taak zou als volgt zijn:

1) De stimulus (letters) wordt gecodeerd en doorgegeven aan het korte termijn/werkgeheugen

2) Het werkgeheugen “vraagt” het lange termijngeheugen (LTG) of het betreffende woord daar is opgeslagen (in het lexicon, oftewel interne woordenboek).

3) Het lange termijngeheugen wordt op een of andere manier doorzocht, en het resultaat wordt doorgegeven aan het werkgeheugen, dat vervolgens een motorische respons aanstuurt, bijvoorbeeld “ja” of “nee” zeggen of op een bepaalde knop drukken.

Input → coderen → zoeken in LTG → beslissing → respons

Woordfrequentie-effect

In de lexical decision task blijkt een belangrijke factor hoe veelvoorkomend het woord is. Bepaalde woorden (zoals auto) komen veel vaker voor dan andere (zoals ekster) in het dagelijks taakgebruik, en hoe vaker een woord gebruikt wordt, hoe korter de tijd die nodig is om een woord als zodanig te herkennen in de lexical decision task. Dit heet het woordfrequentie-effect (op reactietijd).

Wanneer we willen weten welk deel van het proces in de lexical decision task beïnvloedt wordt door woordfrequentie, met als voorbeeldwoorden auto (hoge frequentie) en ekster (lage frequentie) volgt de volgende redenering:

  • Er zal geen verschil zijn in benodigde tijd voor codering van hoge-frequentie- en lage-frequentiewoorden: de een is niet moeilijker te onderscheiden of te lezen dan de ander.
  • In dit voorbeeld zijn beide woorden echte woorden: de beslissing die het werkgeheugen te verwerken krijgt is in beide gevallen “ja het is een woord” dus ook hierin zullen geen verschillen in tijd zijn.
  • De motorische respons is ook in beide gevallen hetzelfde (want de beslissing is hetzelfde) dus ook hier geen verschillen in tijd.
  • Dus:
    De invloed van woordfrequentie op reactietijd ligt in het zoekstadium: veelvoorkomende (hoge frequentie) woorden worden sneller gevonden in het lange termijngeheugen dan weinig voorkomende woorden.

Speculaties omtrent de oorzaak hiervan: veelvoorkomende woorden zijn sterker of vaker opgeslagen in het geheugen of staan “dichterbij” in het geheugen. Het verschil in zoektijd tussen hoge- en mediumfrequentiewoorden en medium- en lage-frequentiewoorden ligt rond de 50 ms.

Een dergelijk procesmodel is een voorbeeld van de strikte informatieverwerking benadering zoals die vroeger gebruikt werd en die uitgaat van bepaalde aannames:

1) Er is sprake van sequentiële verwerkingsstadia: bij elke trial op de taak wordt dezelfde reeks mentale handelingen stap voor stap uitgevoerd in een vaste volgorde. (In computers is dit doorgaans ook het geval, maar zouden mensen zo gelimiteerd zijn dat ze uitsluitend één-voor-één verwerkingsstappen aankunnen?)

2) De sequentiële verwerkingsstadia zijn onafhankelijk en niet-overlappend, oftewel: elke stap moet afgerond worden voordat aan de volgende kan worden begonnen, en de uitvoertijd van de ene stap heeft geen invloed op de uitvoertijd van de volgende stap. In dit geval zou de totale reactietijd precies de som van de reactie- of verwerkingstijden van de individuele verwerkingsstadia zijn.

Kritiek

Er zijn drie aandachtspunten waarom de strikte benadering van informatiewerking binnen de huidige cognitieve psychologie verworpen is:

1. Parallelle verwerking (“parallel processing”)

In onderzoek werd steeds vaker gevonden dat informatieverwerking niet sequentieel verliep maar juist vaak tegelijkertijd, oftewel parallel. Als voorbeeld wordt typen gebruikt.

Om te typen moet je de te typen informatie coderen, woorden worden opgedeeld in letters, letters vertaald naar een vingerbeweging, en vingerbewegingen op een bepaald moment uitgevoerd. Terwijl je een letter typt vinden de andere processen ook plaats: vaak zijn er al tot 8 letters gecodeerd naar vingerbewegingen voordat je ze daadwerkelijk typt.

2. Context effecten

Een belangrijke invloed op de reactiesnelheid in lexicale taken blijkt context. Woorden worden bijvoorbeeld sneller herkend als het betreffende woord kort daarvoor al eerder verwerkt is. Ook betekenisstructuren hebben een belangrijke invloed. Wanneer te herkennen woorden voorafgegaan worden door zinnen die een bepaalde betekeniscontext activeren, worden ze sneller verwerkt dan normaal. Bijvoorbeeld als het woord “kloof” vooraf wordt gegaan door de zin “De brug over het ravijn bleek ingestort te zijn” wordt door de zin een betekeniscontext geactiveerd waar “kloof” goed inpast, en daardoor wordt “kloof” sneller herkend dan wanneer de zin wordt weggelaten. Deze effecten vallen onder “priming”, waarover later meer.

De notie van context effecten past slecht in de strikte informatieverwerking- benadering: in welke stap is er ruimte voor invloed van contextfactoren? Hiervoor zou een extra stap moeten worden gecreëerd.

3. Overige redenen

Sequentiële procesmodellen lenen zich goed voor eenvoudige reactietijd-experimenten, maar complexere, langzame mentale processen kunnen niet met (sequentiële) procesmodellen beschreven worden. Denk bijvoorbeeld aan probleemoplossend vermogen of beslissingen nemen.

Ook de eerdergenoemde meetmethodes van tijd en nauwkeurigheid, die veel voor procesmodellen gebruikt worden, zijn voor ingewikkelde problemen (waar een proefpersoon bijv. een kwartier over doet) niet bruikbaar. Bij het onderzoeken van ingewikkelde processen wordt dan een derde meetmethode gebruikt: de verbale protocol methode. Hierbij moeten proefpersonen hun gedachten en denkstappen verbaliseren terwijl ze een probleem oplossen.

Samengevat bleek de strikte benadering van informatieverwerking te gelimiteerd: veel complexe mentale processen konden er niet mee worden beschreven en de basisaannames bleken niet te kloppen.

De moderne cognitieve benadering: Cognitive science

Bestuderen van het menselijk denken met gebruikmaking van alle beschikbare en relevante wetenschappelijk technieken.

De strikte benadering van informatieverwerking met het bijbehorende sequentiële model werd aangepast tot het volgende model: (figuur 2.4). (zie bijlage)

Een belangrijk verschil is dat de drie soorten geheugen nu in een driehoek staan, wat de sequentiële associatie van het oude model wegneemt. Daarnaast wijzen de pijlen tussen de soorten geheugen nu twee kanten op, wat betekent dat alle soorten geheugen elkaar op alle momenten tegelijkertijd in het verwerkingsproces kunnen beïnvloeden (parallelle verwerking). Het feit dat het lange termijngeheugen een centralere rol heeft in het nieuwe model laat ruimte voor de invloed van context op de verwerking van informatie vanaf de eerste stap: het sensorisch geheugen. Dit effect is duidelijk zichtbaar wanneer je een stuk tekst leest. Omdat je snel door hebt waar het over gaat en alleen kernwoorden leest, mis je details zoals spelfouten of kleine tussenwoordjes. Dit proces heet “top-down” of conceptgedreven verwerking: bestaande kennis of context beïnvloedt de meer basale mentale processen.

Het nieuwe model is wat verder verwijderd van de oude computeranalogie, die uitgaat van sequentiële verwerking. Een ander verschil met het oude computermodel is dat er altijd vanuit werd gegaan dat, zolang men de processen (“software”) begreep, men weinig van de fysieke structuur (“hardware”) van de computer en dus van het brein hoefde te begrijpen. Tegenwoordig is duidelijk dat onderzoek en kennis van de fysieke structuur van de hersenen cruciaal is om mentale processen te begrijpen.

Neurocognitie: het brein en cognitie samen

De verzamelnaam voor de verschillende neuro-wetenschappen, waaronder bijvoorbeeld de cognitieve neuropsychologie, een tak die in het bijzonder interessante vragen over de organisatie van hersenen en cognitie oproept. Denk bijvoorbeeld aan een man bij wie na een ongeluk een specifiek deel van zijn geheugen niet meer functioneerde, namelijk het terughalen van gegevens uit zijn autobiografisch (ook wel episodisch) geheugen. Hij kon zich geen enkele gebeurtenis uit zijn verleden herinneren, hoewel zijn semantisch geheugen intact was: hij kon nog wel praten, schaken en had een normale intelligentie. Een dergelijk patroon wordt een dissociatie genoemd: verstoring van een deel van het geheugen, terwijl de andere delen intact blijven.

Het is niet altijd mogelijk om dissociaties te onderscheiden. Het is bijvoorbeeld mogelijk dat iemand de betekenis van een concept goed kan vinden in het geheugen (semantisch geheugen), maar dat het gedeelte dat de naam vindt (lexicaal geheugen) beschadigd is. Wanneer men echter de betekenis van een concept niet meer kan vinden in het geheugen, zal men ook de naam ervan niet kunnen zeggen, hoewel het lexicaal geheugen dan niet per se beschadigd hoeft te zijn. (Wanneer beschadiging van een bepaalde geheugenfunctie betekent dat een ander deel ook beschadigd is, noemt men dit associatie)

De cognitieve neuropsychologie richt zich op hersenbeschadigingen, die een waardevolle bron van informatie bevat over hoe gezonde hersenen functioneren, maar richt zich ook op gezonde hersenen, zoals bijvoorbeeld met de huidige geavanceerde scans (PET, MRI etc).

Neurologie: de basis

Menselijke hersenen wegen ongeveer 1450 g (400g bij de geboorte) en hebben de grootte van een grapefruit. Neuronen zijn de belangrijkste hersencellen: ze ontvangen neurale impulsen en sturen ze door. In totaal zijn er naar schatting ongeveer 180 miljard cellen in het zenuwstelsel, waarvan 80 miljard informatieverwerkende cellen.

Neuronen:

(zie figuur op p 51 van Cognition (2010), Ashcraft) (zie bijlage)

Neuronen bestaan uit een cellichaam (soma) waaruit diverse dendrieten ontspringen. Deze dendrieten leiden inkomende impulsen naar de cel. Daarnaast heeft een neuron een lange extensie, de axon, die de uitgaande impulsen vervoert naar volgende neuronen. Aan het eind van de axon zijn weer vertakkingen: “axon terminals” of “terminal arborizations” = output.

Elementen van het zenuwstelsel:

Receptor cellen: reageren op een fysieke stimulus en zenden een signaal via een reeks sensorische neuronen. Deze sturen de impuls door het ruggenmerg, waar twee routes gekozen kunnen worden. De ene loopt direct via het ruggenmerg door naar motorische neuronen die via effector cellen de spieren bedienen (zoals in een reflex je arm terugtrekken als je je aan iets brandt). De tweede route brengt de impuls van het ruggenmerg naar de hersenen (waarna vervolgens een bewustere motorische impuls aangestuurd kan worden).

Synapsen: de ruimte tussen de axon van de ene neuron en de dendriet van de volgende, waardoor een impuls wordt gezonden.

(Over het algemeen raken axonen en dendrieten elkaar niet). Een neuron heeft synapsen met een groot aantal andere neurons: tussen de 100 en 15000 (dit heet “divergence”). “Convergence” is het fenomeen dat veel neuronsynapsen met één receptor-neuron binden..

Meestal vindt deze overdracht van een impuls plaats door chemische processen in de synaps. Dit gebeurt door de afscheiding van neurotransmitters, chemische stoffen die aansluiten op specifieke receptoren op de dendriet van de volgende neuron. Neurotransmitters kunnen twee effecten hebben: “excitation” (Type I: activeert een impuls in de volgende neuron) of inhibitie (Type II: voorkomt een impuls in de volgende neuron). Een axon scheidt maar één van de twee types af: neuron A kan dus niet neuron B activeren en vervolgens neuron C inhiberen.

Er worden ongeveer 60 neurotransmitters onderscheiden. Sommige hebben de algemene functie normale lichamelijke processen goed te laten verlopen, anderen hebben een specifiekere taak. Acetylcholine en norepinephrine lijken grote invloed op cognitieve processen te hebben. In Alzheimer- en dementiepatiënten worden bijvoorbeeld lage waardes voor acetylcholine gevonden. Een belangrijke tak van onderzoek is het effect van verschillende chemicaliën en medicijnen op cognitieve processen en gedrag.

Anatomie van de hersenen

(zie de figuren op p 53 en 54 van Cognition (2010), Ashcraft)

Het is onmogelijk hier de werking van de hersenen op alle verschillende gebieden te bespreken. Het perifere zenuwstelsel wordt hier daarom niet besproken, maar we richten ons op het centrale zenuwstelsel: de hersenen en het ruggenmerg.

De lager liggende hersenstructuren worden de oude hersenen genoemd, omdat ze evolutionair gezien het eerst ontwikkeld zijn. De oude hersenen bestaan uit medulla, amygdala, hippocampus, hypothalamus, thalamus, corpus callosum en de pituitary gland (hypofyse).

De neocortex of cerebrale cortex is de buitenste laag van de hersenen die verantwoordelijk is voor meer complexe mentale processen. Deze laag is een gerimpelde, opgevouwen structuur met twee helften (hemisferen) die, als ze plat uitgespreid zou worden, ieder een vierkante meter zouden beslaan.

Dit deel van de hersenen is sterk ontwikkeld in mensen in vergelijking met andere (zoog)dieren, en bevat ongeveer 3/4e van het totaal aantal neuronen in de hersenen: 10 tot 20 miljard is een conservatieve schatting.

De neocortex bestaat uit vier (met elkaar verbonden) kwabben: de frontaalkwab, de pariëtale kwab, de occipitale kwab en de temporale kwab.

Belangrijke structuren in de oude hersenen zijn:

- thalamus: via de thalamus wordt binnenkomende (sensorische) informatie doorgestuurd naar andere hersengebieden

- corpus callosum: brug tussen de linker en rechter hersenhelft

- hippocampus: op de werking van de hippocampus wordt in hoofdstuk 6 uitgebreid ingegaan

Basisbegrippen

Contralateraliteit: de linkerhersenhelft ontvangt informatie van en bestuurt de rechterhelft van het lichaam en andersom.

Specialisatie in de hemisferen oftewel cerebrale lateralisatie: iedere hersenhelft is gespecialiseerd in bepaalde functies of voert taken op een andere manier uit.

Een overzicht van dominante functies per hersenhelft:

Functie

Linkerhemisfeer

Rechterhemisfeer

Visueel

Letters, woorden

Ingewikkelde geometrische patronen, gezichten

Auditief

Taalgerelateerde geluiden

Overige geluiden, muziek

Somatosensorisch

onbekend

Tastzin voor complete patronen, braille

Bewegen

Complexe gecontroleerde bewegingen

Beweging in ruimtelijke patronen

Geheugen

Verbaal geheugen

Nonverbaal geheugen

Taal

Spraak, lezen, schrijven, rekenen

Vertellen, infereren

Ruimtelijk inzicht

Geometrie, richtinggevoel, mentale rotatie van vormen

De links-rechts verdeling is echter niet absoluut: in de populaire media wordt ze vaak overgesimplificeerd. Alle mentale taken vertrouwen op de samenwerking van verschillende functiegebieden, verdeeld over beide hemisferen, en verstoring van één van die processen kan leiden tot falen op de taak.

Een uitzondering is taal: deze is in het merendeel van mensen gelokaliseerd in de linkerhersenhelft (85-90% van rechtshandige mannen, 79% van vrouwen).

“Split brain” onderzoek

Naast hersenbeschadigingen zijn er ook patiënten bij wie expres de verbinding tussen de hemisferen verbroken is. Sperry deed onderzoek naar ernstige epilepsie patiënten bij wie het corpus callosum (de verbinding tussen beide hersenhelften) werd doorgesneden zodat epileptische activiteit niet kon overslaan op de andere hersenhelft. Dit had verregaande gevolgen voor de cognitie van de patiënt. Een patiënt die een potlood in zijn linkerhand kreeg (en deze niet kon zien) kreeg deze informatie dus door in zijn rechterhemisfeer, maar vervolgens niet in zijn linkerhemisfeer. Doorgaans kon de patiënt dan wel laten zien hoe je een potlood moet gebruiken, maar kon hij het potlood niet benoemen (taal: linkerhemisfeer).

Onderzoeksmethoden

Laesies: snijden in de hersenen of hersenschade kan interessante informatie opleveren over resulterende veranderingen in gedrag en functioneren. De onderzoeksgroep is echter beperkt tot dieren, patiënten die hersenoperaties moeten ondergaan en mensen die door ziekte of ongelukken hersenbeschadigingen oplopen.

Directe stimulatie: Penfield was de eerste die deze methode gebruikte: hij verdoofde en opende de schedel van patiënten die volledig bij bewustzijn waren en stimuleerde de hersenen direct met kleine elektrische stroompjes.De patiënt moet intussen vragen beantwoorden of vertellen wat er in hem opkomt en wat hij voelt. Dit leverde belangrijke informatie over lokalisatie van hersenfuncties.

Nadeel van deze methode is dat hij alleen in de klinische setting (neurochirurgie-patiënten) kan worden toegepast, en juist daarom zijn de resultaten niet altijd generaliseerbaar.

Beeldvormingtechnieken:

CT: computed tomography

MRI: magnetic resonance imaging

PET: positron emission tomography

fMRI: functional MRI

CT en MRI leveren duidelijke beelden van de hersenstructuur. fMRI en PET kunnen gebruikt worden als “functional scan”: om functiegebieden te onderzoeken.

Gebieden met verhoogde neurale activiteit, bloedtoevoer, zuurstofgebruik etc. (bijvoorbeeld tijdens het uitvoeren van een bepaalde taak) lichten op op de scan.

Voordeel is dat de risico’s laag zijn en de informatie specifiek en relevant.

Je kunt ook bloedtoevoer meten door een vloeistof toe te voegen aan het bloed die met een computer gedetecteerd kan worden. Nadeel is dat er met deze methode vertragingen in tijd kunnen optreden.

EEG: Electro-encephalogram, met behulp van electrodes op de scalp hersengolven onderzoeken.

ERP: Event related potential: de verandering in electrische activiteit op het moment dat een stimulus wordt aangeboden. Geeft weinig informatie over de plek waar een functie wordt uitgevoerd, maar wel over de timing

Onderzoek van Osterhout en Holcomb (1992):

N4 effect: een bepaalde negatieve hersengolf die optreedt wanneer je een semantische anomalie ziet of leest in een tekst. Bijvoorbeeld: “Jantje rende de deur uit nadat hij zijn schoenen, een voetbal, scheenbeschermers en een olifant had gepakt.” De N4 golf treedt ongeveer 400ms nadat je “olifant” leest op.

P6 effect:: positieve hersengolf die optreedt (na ongeveer 600 ms) bij een grammaticale/syntactische anomalie. (bijv: “Ik mijn boterham eet.”)

Connectionisme

Connectionistische modellen (gebaseerd op computers) worden ook wel “neural net models” of “parallel distributed processing (PDP) models” genoemd. Het basisidee is dat het systeem bestaat uit allerlei simpele units die met elkaar in verbinding staan. Deze verbindingen zijn wijdvertakt en kunnen positief (“exciting”) of negatief (“inhibiting”) zijn.

In woordherkenning zijn er bijvoorbeeld units die bepaalde kenmerken van letters (bijvoorbeeld een horizontaal of schuin streepje) detecteren. Een unit die een verticale streep detecteert zal een positieve impuls zenden naar de unit die de letter “N” detecteert. Deze unit zal vervolgens een negatieve impuls zenden naar de unit die het woord “APPEL” detecteert: de letter N komt hier immers niet in voor. Deze processen (en die van overige letter- en woordkenmerken) vinden parallel en verspreid over verschillende niveaus plaats: verwerking volgens het PDP model.

Ook de eerdergenoemde top-down processen spelen een rol. Wanneer men de zin leest: “Ik smeerde twee boterhammen, een met jam en een met kaas” zal tegen de tijd dat men bij het woord “kaas” is aangeland al een bepaalde semantische context geactiveerd zijn die ervoor zorgt dat men eerder het woord “kaas” activeert of herkent dan het woord “kamp”.

Back to top

Deel 3. Perceptie

Doordat perceptie grotendeels automatisch en onbewust plaatsvindt is men er zich nauwelijks van bewust hoe complex en sensitief de sensorische organen (zoals oren en ogen) zijn. Dit hoofdstuk behandelt perceptie en patroonherkenning en richt zich daarbij vooral op de visuele en auditieve perceptie.

Visuele perceptie

Licht komt binnen in het oog, wordt gefocust en omgekeerd door de lens, en valt dan op het netvlies (retina). Lichtgevoelige neuronen (staafjes en kegels) op het netvlies zenden vervolgens impulsen naar zogenaamde bipolaire cellen, die de signalen verzamelen en doorsturen naar de laatste laag cellen: de ganglion cellen. De axonen van deze ganglioncellen vormen de optische zenuw, die via de “optic chiasm” (kruispunt van de optische zenuwen van de twee ogen) naar de visuele cortex loopt, achterin de schedel.

Opvallend is dat contralateraliteit in visuele perceptie niet betekent dat het linkeroog signalen naar de rechterhemisfeer stuurt en andersom. Het is wel zo dat de linkerkant van het gezichtsveld in de rechterhemisfeer wordt verwerkt en andersom, maar dit komt doordat de linkerhelft van zowel het linker- als het rechteroog signalen naar de rechterhemisfeer zendt (vandaar het belang van de “optic chiasm”). Als één oog uitvalt zie je dus niet maar de helft van je gezichtsveld, maar als één hersenhelft uitvalt heeft dat wel dit effect.

Compressie: veel van de “pure” input (licht) wordt al “samengevat” voordat ze wordt doorgestuurd naar de visuele cortex. In de fovea, het gevoeligste deel van de retina, bevinden zich vooral kegelcellen en elke cel heeft een eigen “privé” bipolaire cel die informatie doorgeeft. Buiten de fovea (oftewel in de periferie van het gezichtsveld) liggen voornamelijk staafjes, die vaak in grotere aantallen met één bipolaire cel in verbinding staan. Dit heeft dus als resultaat dat buiten de fovea er al (details van) visuele informatie verloren gaat in de eerste stap van de visuele perceptie. Ook zijn er slechts een miljoen ganglioncellen die de uiteindelijke informatie doorsturen.

De informatie die in de visuele cortex aankomt is dus al voor een deel verwerkt voordat er ook maar enige vorm van cognitie aan te pas is gekomen.

Sensatie: de ontvangst en codering van stimulatie uit de omgeving.

Perceptie: de verwerking en het begrijpen van die sensorische informatie.

Visuele informatieverzameling is niet een soort “continue opname”. Het oog maakt steeds kleine sprongetjes, “saccades”, tussen fixatiepunten (“fixaties”). Tijdens de saccade, die tussen de 25 en 100 ms duurt, wordt geen of nauwelijks visuele informatie verwerkt. Het falen om veranderingen op te merken in visuele stimuli, wanneer deze plaatsvinden tijdens een saccade wordt ´change´ blindheid genoemd. Het beeld waar het oog tijdens de fixatie op is gericht, wordt verwerkt. Eén saccade-fixatie-cyclus duurt ongeveer 250 ms en registreert een aparte visuele scène. Deze scènes overlappen vaak wel gedeeltelijk, tenzij je je ogen echt ineens op iets heel anders richt.

Belangrijk in visie is de balans tussen focussen op een bepaalde stimulus en afgeleid worden door andere stimuli. Visuele aandacht kunnen vasthouden is erg belangrijk om enige mate van (mentale) continuïteit te bewerkstelligen, maar moet niet zo rigide zijn dat belangrijke stimuli gemist worden. Daarom worden grove visuele stimuli die buiten de directe visuele focus liggen wel (parallel) verwerkt. Bijvoorbeeld uit je ooghoek een auto zien komen aanrijden die je aandacht trekt waardoor je op tijd kunt wegspringen.

Uit onderzoek is gebleken dat het ons soms niet lukt om iets te zien waar we naar kijken, omdat de aandacht daar niet op gericht is. Dit wordt ´inattentional´ blindheid genoemd. Een voorbeeld hiervan kwam naar voren in het onderzoek van Haines (1991). Ervaren piloten moesten in een vliegsimulator een vliegtuig landen. Bij dat landen is er veel aandacht gericht op procedures en apparatuur). Het landen ging goed, maar een aantal piloten zag ondertussen niet dat de landingsbaan geblokkeerd was.

Visueel geheugen

Kan goed worden uitgelegd aan de hand van “visual persistence”. Als je een bliksemflits ziet (die in werkelijkheid bestaat uit een paar hele korte flitsen achter elkaar in een tijdsbestek van 200 ms) heb je het idee dat je één flits ziet die ongeveer een halve seconde duurt. Dit noemt men “visual persistence”: het ogenschijnlijk voortduren van een visuele stimulus nadat de daadwerkelijke fysieke stimulus is afgelopen. Tijdens dit “nagloeien” kan er aanvullende informatie uit het beeld geregistreerd worden.

De oorzaak is niet dat onze neurale activiteit te langzaam is, maar het beeld dat geregistreerd is wordt nog even vastgehouden in een soort visuele buffer: het visueel sensorisch geheugen.

Sperling (1960-61) deed interessant onderzoek naar het visueel sensorisch geheugen met behulp van een tachistoscope, ook wel T-scope. Met dit apparaat konden visuele stimuli gedurende een precies afgestelde tijdsduur getoond worden, en op een bepaalde plaats (meestal de proefpersoon’s fovea). Sperling bood proefpersonen een set van 3 rijen met 4 letters of cijfers aan, gedurende periodes van 5 tot 50 ms, en onderzocht hoeveel letters/cijfers werden onthouden (de “span of apprehension”: aantal items onthouden na een korte aanbieding). De meeste personen wisten nog 4-5 letters, oftewel 37%. Sperling ontdekte dat hun strategie was om te focussen op een bepaalde rij of gebied binnen het stimulusveld, omdat ze dachten dat ze toch niet de hele display konden onthouden, dus dan maar liever een gedeelte wél goed.

Sperling omzeilde dit door na het aanbieden van de stimulus een toon te laten horen die de proefpersoon vertelde welke van de drie rijen hij moest rapporteren: de “partial response condition”. De proefpersoon wist dus niet van tevoren welke rij en moest zich dus noodgedwongen op de hele stimulus richten. Proefpersonen bleken in deze conditie 76% van de letters in een willekeurige rij correct te weten, oftewel: 76% van de hele display, in plaats van de 37% die eerder werd gerapporteerd. Het visuele sensorische geheugen hield dus de hele stimulus even vast zodat er informatie “uitgehaald” kon worden. Naarmate er meer tijd verstreek tussen het aanbieden van de stimulus en de toon die aangaf welke rij gerapporteerd moest worden, verminderde de prestatie: de “nagloei” van de stimulus is dus tijdelijk bruikbaar en dooft dan uit. Een donker scherm voor en na de stimulus bleek voor een veel betere prestatie te zorgen (langzamer uitdoven van stimulus) dan een licht scherm.

De letters die correct (verbaal) teruggerapporteerd werden, waren via het korte termijn- of werkgeheugen verwerkt tot een verbale (auditieve) respons. Sperling vond dat foute antwoorden meestal in de auditieve hoek lagen: “T” in plaats van “B”.

Het leek uit dit experiment alsof de tijdelijke beschikbaarheid van de stimulus door een passief, letterlijk “uitdoven” (decay) kwam. Maar dit bleek niet het geval (ook niet logisch in het dagelijks leven waar visuele stimuli doorgaans niet door een wit scherm vooraf gegaan en gevolgd worden): er was sprake van interferentie: een stimulus vergeten doordat er een andere stimulus of mentaal proces plaatsvindt. Wanneer bijvoorbeeld, na het aanbieden van een rij letters, op de plek van de te onthouden letter een cirkel wordt getoond, blijken proefpersonen de letter te vergeten.

Dit heet “backward masking”: een latere stimulus kan het effect van een voorafgaande stimulus drastisch beïnvloeden. Wanneer de inhoud van het visueel sensorisch geheugen aangetast wordt door een subsequente visuele stimulus, noemt men dit “erasure” (uitwissing).

Discussiepunten

Doordat de resultaten zo vaak bevestigd waren, namen Sperling en zijn collega’s aan dat het visueel sensorisch geheugen een reële en belangrijke eerste stap van visuele perceptie was. Haber (1983) ontkende het bestaan van het visuele sensorische geheugen niet, maar trok wel de ecologische validiteit van T-scope onderzoek in twijfel (bijvoorbeeld met zijn uitspraak dat het visueel sensorisch geheugen alleen van pas zou komen als je tijdens onweer wilde lezen). In de dagelijkse realiteit krijg je visuele informatie niet in korte, op zichzelf staande brokjes aangeboden maar is deze continu, volgens Haber. Een aantal tegenargumenten:

1) Voor het percentage teruggerapporteerde letters maakt het niet zoveel uit of de rijen 5 of 50 ms werden aangeboden.

2) Onderzoek van Coltheart (1983) toonde daarnaast aan dat een persoon alleen de eerste 50 ms van een fixatie gebruikt om een visuele stimulus (bijv. een woord) te verwerken. De overige tijd van een fixatie voegt niets toe; je kan zelfs het oorspronkelijke woord veranderen en de persoon merkt het meestal niet.

3) Uit experimenten met bewegende stimuli bleken deze dezelfde kenmerken te vertonen als niet bewegende stimuli (zoals uitdoving van het visueel sensorisch geheugen over tijd). Dit leidde tot de conclusie dat visuele informatie uit verschillende fixaties samengevoegd wordt tot een perceptuele representatie.

4) Ook zonder een oogbeweging gebeurt deze samenvoeging: wanneer twee stimuli korter dan 20 ms na elkaar vertoond worden, wordt er geen onderscheid tussen gemaakt. Pas wanneer stimuli meer dan 40ms na elkaar aangeboden worden of ieder meer dan 40 ms duren, worden ze niet zo goed meer geïntegreerd.

De kritiek van Haber werd dus redelijk ontkracht.

Samengevat ervaar je visuele perceptie niet als losse informatiebrokjes uit afzonderlijke fixaties. Terwijl de informatie van een fixatie uitdooft en verwerkt wordt, wordt hij alweer ge-update door en geïntegreerd met informatie uit de volgende fixatie. Deze “mentale processen van visuele aandacht” werden door Neisser “focal attention” genoemd. Het is deze visuele aandacht en het integratieproces dat ervoor zorgt dat je visuele informatie als continu ervaart i.p.v. in stukjes.

Patroon herkenning en lezen.

Neisser (1967): het zou makkelijk zijn als een bepaald patroon, bijvoorbeeld de letter K, overal en altijd hetzelfde zou zijn. Helaas is dit niet zo: er zijn een heleboel verschillende patronen en vormen die we als de letter K zouden herkennen en categoriseren.

Werkt deze categorisatie met “templates”, oftewel in het geheugen opgeslagen representaties van alle mogelijke patronen en vormen? Lijkt niet aannemelijk: je zou enorm veel patronen moeten opslaan, en het zou dan lang duren om ze te herkennen als je de hele database moet doorzoeken.

“Feature analysis” of “feature detection“ lijkt aannemelijker: het herkennen van basale bouwstenen van vormen en patronen, die gecombineerd een patroon vormen (bijvoorbeeld: de letter A bestaat uit twee schuine streepjes en een horizontaal streepje, op een bepaalde manier gecombineerd).

Voorbeeld: Selfridge’s pandemonium, een model met schreeuwende duiveltjes. Op het onderste niveau heb je de data duiveltjes, die een patroon coderen. Op het volgende niveau zitten de “computational” duiveltjes, dit zijn de echte “feature analysers”: ieder van deze duiveltjes let op zijn eigen kenmerk, bijvoorbeeld een verticale of schuine streep, en als deze in het patroon aanwezig is gaat hij schreeuwen. Weer een niveau daarboven zitten de cognitieve duiveltjes. Zij staan ieder voor een letter in het alfabet (of andere soort vaststaande vorm) en luisteren of ze computational duiveltjes horen schreeuwen die bepaalde kenmerken signaleren die bij hun letter horen. Zowel het “N” duiveltje als het “H” duiveltje reageren als ze het “verticale streep”-duiveltje horen schreeuwen, maar als er ook een “horizontaal streepje”-duiveltje aan het schreeuwen is gaat het “H” duiveltje harder schreeuwen omdat hij een betere match (2 kenmerken) heeft. Het beslissingsduiveltje hoort welk cognitief duiveltje het hardst schreeuwt en kiest die uit: de letter H wordt herkend.

Er is bewijs uit de neuropsychologie dat het feature detection model klopt: bepaalde neuronen in de visuele cortex reageren alleen op verticale lijnen, andere op schuine lijnen etc.

Selfridge’s model gaat uit van parallelle verwerking en dit moet haast wel: als we bijvoorbeeld tijdens het lezen elke letter stap voor stap moesten herkennen, zou het lezen van een zin veel langer duren. Selfridge zelf erkende al een tekortkoming in zijn model, namelijk dat het uitging van “bottom-up” oftewel “data-driven” (bepaald door de stimulus) processen en geen ruimte liet voor invloed van de context.

Ook bij patroonherkenning speelt context en bestaande kennis een rol, we spreken dan van “conceptually driven processing effects” oftewel top-down effecten.

Wanneer je bijvoorbeeld in een reeks letters de letter X moet vinden, maakt het nogal een verschil of die rij letters uit D’s, O’s G’s en C’s bestaat of uit V’s, Z’s, M’s en Y’s bestaat. In het eerste geval merk je snel genoeg dat je alleen op een schuine lijn hoeft te letten en dat je alle overige detectoren (bijv “ronde vorm“) kan “uitzetten”; je zal de X snel gevonden hebben. In het tweede geval moet je op meerdere kenmerken tegelijk letten omdat de target en de overige letters meer overeenkomen, en dit duurt langer. De “beslissing” dat je je in het eerste geval maar op één kenmerk hoeft te richten is een vorm van top-down processing.

In patroonherkenning spelen naast bottom-up ook top-down processen een rol. Bottom-up processen missen namelijk het effect van context. Dit is de invloed van omliggende informatie en je eigen kennis. Een voorbeeld hiervan is repetition blindness. Dit is de neiging een visuele stimulus niet waar te nemen, wanneer deze meerdere malen kort achter elkaar verschijnt (bijv. Toen ik water morste, lag er overal water). Het connectionistisch model uit hoofdstuk 2 is hier goed op toepasbaar. Connectionisme is een “computational” benadering: het gaat om computaties, oftewel verwerkings-stappen.

Basisbegrippen en –aannames in connectionisme

1) Complexe mentale processen bestaan uit parallelle verwerking die over alle niveaus van het netwerk verdeeld is (parallel distributed processing)

2) Dit netwerk bestaat uit een input niveau, een verborgen niveau en een output niveau, die allemaal met elkaar in verbinding staan. Deze verbindingen zijn positief of negatief en hebben een bepaald gewicht.

3) Positieve connecties zorgen voor activering van de volgende unit., negatieve voor inhibitie. Een unit geeft een positieve impuls door wanneer hij voldoende geactiveerd is (tot een bepaalde drempelwaarde).

4) Gewicht van de connecties wordt bepaald door een feedback systeem gebaseerd op goed of fout. Wanneer de gewichten in het netwerk voor een bepaalde taak gestabiliseerd zijn, is het netwerk getraind.

5) Overeenkomsten tussen het connectionistische model en neurologie zijn expres (bijvoorbeeld terminologie).

Backpropagation: het aanpassen van gewichten van bepaalde connecties in het verborgen niveau gebeurt vanuit het output niveau terug naar binnen.

Delta regel: delta is de verandering van gewicht

Gedistribueerde representatie: De representatie van een concept noemen we gedistribueerd omdat ze afhankelijk is van een breed netwerk van units en gewichten.

Lokale minima: tijdens training lijkt het systeem soms een stabiele baseline voor de gewichten te vinden, maar is dan in werkelijkheid vastgelopen in een lokaal minimum.

Massively parallel processing: bijna alle units in een systeem spelen een rol in elke stap van de verwerking, en alle units werken tegelijkertijd.

Connectionisme uitgelegd

Voorbeeld: het verwerken van vierletterwoorden. Voor elke letterpositie (1, 2, 3, en 4) is er een aparte input units - verborgen units sequentie, die uiteindelijk samenkomen in het output niveau.

Input units

Het onderste niveau bestaat uit input units, die stimuli uit de omgeving ontvangen. Voor letter/woordherkenning zijn dit bijvoorbeeld negen visuele basiskenmerken (horizontaal streepje, rondje etc, vgl. “computational” duiveltjes, oftewel het feature-detection niveau).

Verborgen (interne) units

De input units zijn verbonden met verborgen units, en deze connecties hebben een bepaald positief of negatief “gewicht”. Wanneer de input units matchen met de aangeboden stimulus, activeren ze een set units in het verborgen niveau. In dit voorbeeld staan units in het verborgen niveau voor letters. Een horizontaal streepje (input unit) heeft bijvoorbeeld een positieve, activerende connectie met letter E (verborgen unit), maar een negatieve connectie met de letter C. Verborgen units die sterk positief geactiveerd worden (door meerdere input units) hebben invloed op het output-niveau, negatief geactiveerde (geïnhibeerde) units niet of weinig. Wanneer alle connecties en hun gewichten “doorberekend” zijn, wordt het output niveau geactiveerd.

Output units

In dit voorbeeld zijn de output units vierletterwoorden. Wanneer als eerste letter T geïdentificeerd is, zullen woord-units die met een T beginnen geactiveerd worden en woord-units die met een andere letter beginnen gedeactiveerd. Naar mate de volgende letters geïdentificeerd worden, blijven er steeds minder mogelijke woorden over en wordt uiteindelijk het juiste woord geïdentificeerd.

Top-down processen spelen hierbij ook een rol, bijvoorbeeld: omdat je weet dat in de Nederlandse taal een woord meestal niet met TG begint, zal, wanneer de eerste letter een T is, in de sequentie voor de 2e letter de letter-unit G ook van boven af gedeactiveerd worden.

Dit maakt het ook mogelijk om woorden, waarvan één van de letters onduidelijk of gedeeltelijk weergegeven is, toch te lezen, omdat je kunt deduceren welke letter er wel of niet zou kunnen staan op basis van je kennis van de Nederlandse taal.

Herkennen van objecten

Biederman: herkenning van componenten (“Recognition by components”). Oftewel: we herkennen objecten door ze in componenten in te delen. Die componenten zijn geometrische basisfiguren, “geons”, zoals een kegel, een bol, een vierkant blok. Combinaties van bepaalde “geons” herkennen we dan als een bepaald object.

“Parsing”: het ontleden van objecten naar geons en hoe deze geons met elkaar verbonden zijn.

Twee zaken zijn vooral belangrijk: de randen van geons en objecten, en de plekken waarop lijnen of vlakken elkaar kruisen (en onder welke hoek). Dit word bijvoorbeeld duidelijk wanneer je mensen plaatjes laat zien waarvan gedeeltes van de lijnen zijn weggelaten. Indien de weggelaten stukken voornamelijk ononderbroken lijnstukken zijn, zijn de meeste objecten wel herkenbaar, maar wanneer vooral veel “kruispunten” (van lijnen en vlakken) zijn weggelaten maakt men veel meer fouten.

Nadeel van de Recognition by components theorie is dat ze vooral uitgaat van bottom-up processen: herkennen op basis van visuele stimuli. Ook is er bewijs dat herkenning van objecten niet alleen in componenten plaatsvindt: mensen kunnen ook snel en makkelijk de algemene vorm of patroon van een stimulus herkennen zonder de componenten te onderscheiden.

Neuropsychologisch onderzoek tenslotte geeft aan dat voor object herkenning zowel hersengebieden die verantwoordelijk zijn voor kenmerken en componenten van objecten, als gebieden die zich richten op de algemene “gestalt” (vorm), actief zijn.

Agnosie: het niet meer kunnen herkennen van objecten

Dit komt ofwel omdat de afzonderlijke elementen niet meer tot een geheel geïntegreerd kunnen worden, of omdat aan het gehele visuele patroon geen betekenis gekoppeld kan worden. Agnosie heeft niets te maken met blindheid maar is een mentaal probleem, veroorzaakt door beschadiging van de hersenen.

Agnosie is zintuig-specifiek: wanneer visuele stimuli niet herkend worden, betekent dit niet dat auditieve of geur stimuli ook niet herkend worden. Iemand kan bijvoorbeeld de visuele componenten van een appel beschrijven (rood, rond, bruin stokje eraan) maar het pas als een appel herkennen wanneer hij er een hap uitneemt.

Agnosie hoeft niet per se visueel te zijn, er bestaat bijvoorbeeld ook auditieve agnosie.

Prosopagnosie: het niet kunnen herkennen van gezichten.

Subtypes van visuele agnosie:

Apperceptieve agnosie: verstoring in het herkennen van patronen. Basiskenmerken zoals kleur worden nog wel herkend, maar het integreren tot een geheel lukt niet. In het ergste geval kunnen mensen objecten niet of nauwelijks van elkaar onderscheiden.

Schade meestal in achterste deel van de rechter parietaalkwab. Er zijn aanwijzingen dat de rechterhemisfeer verantwoordelijk is voor brede, globale verwerking, terwijl de linkerhemisfeer meer details verwerkt. Apperceptieve agnosie zou je dan een verstoring in het vormen van “gestalt” kunnen noemen.

Associatieve agnosie: objecten wel visueel kunnen integreren (en beschrijven of zelfs natekenen), maar er vervolgens geen betekenis aan kunnen verbinden. Schade meestal aan het raakvlak van de temporaal- en occipitaalkwab van beide hemisferen. Dit hersengebied wordt ook wel de “what-pathway” genoemd: de link tussen de visuele occipitaalkwab en de op woordbetekenis en taal gerichte temporaalkwab.

Samengevat is de herkenning van objecten geen simpel automatisch proces, maar een reeks stappen die ieder afzonderlijk beschadigd kunnen zijn. Eerst vindt sensorische codering plaats, daarna worden basiselementen en kenmerken onderscheiden, deze worden tot een geheel gevormd en vervolgens wordt er een betekenis en een naam aan gegeven.

Auditieve perceptie

Geluidsgolven worden in het oor middels een ingewikkeld proces omgezet in neurale impulsen. Geluidsgolven worden via de oorschelp het oor ingeleid en laten het trommelvlies trillen, wat de middenoorbeentjes in beweging brengt. De middenoorbeentjes brengen een vloeistof in beweging in het binnenoor, en deze vloeistof beweegt langs kleine haartjes op het basilaire membraan, waardoor een neurale impuls wordt gecreëerd die vervolgens door de gehoorzenuw naar de auditieve cortex wordt doorgegeven.

De auditieve cortex bevindt zich voornamelijk in het bovenste middengedeelte van de temporaalkwab en loopt een stukje door in de pariëtaalkwab. Impulsen uit het oor worden voornamelijk contralateraal doorgegeven, maar ook gedeeltelijk verspreid over de twee hemisferen.

Hoewel het menselijk gehoor met een frequentiebereik van 20 tot 20.000 geluidsgolven per seconde niet enorm breed is, is het wel enorm gevoelig voor subtiele variaties in hoogte, volume en overlappende frequenties.

Het auditief sensorisch geheugen (of echoïsch geheugen) ontvangt auditieve stimuli en slaat ze korte tijd op zodat ze verder verwerkt kunnen worden door bijvoorbeeld het werkgeheugen. Neisser (1967) geeft aan dat, aangezien geluid per definitie over tijd is verspreid, een soort buffer noodzakelijk is om binnenkomend geluid te kunnen begrijpen (een losse milliseconde geluid zonder context is niet te begrijpen).

Darwin et al (1972) onderzochten hoe lang informatie in het echoïsch geheugen beschikbaar blijft. Hun experiment is een auditieve versie van Sperling’s visuele werk: letters en cijfers moesten worden onthouden, nu auditief in plaats van visueel aangeboden. Proefpersonen kregen een koptelefoon op waardoor ze drie sequenties van drie letters en cijfers tegelijk kregen aangeboden: één in het linkeroor, één in het rechter oor en één in twee oren tegelijk (waardoor de stimulus in een “derde” oor in het midden leek te komen). De proefpersonen konden gemiddeld ongeveer 4 van de 9 auditieve items goed herhalen. Wanneer hen vlak na het aanbieden van de stimulus (met behulp van een visuele cue) werd aangegeven de boodschap uit één van de “drie” oren te herhalen, scoorden ze 50% goed. Dit effect bleek gelden tot aan een uitstel van de cue van 4 seconden.

Twee verschillen met de visuele tests:

- De auditieve partial-report conditie gaf een lager percentage correct (50%) dan in de visuele tests (75-90%). Het percentage van 50% goed werd alleen overschreden bij items die als derde in de reeks gepresenteerd waren.

- Het lijkt erop dat, hoe simpeler de stimulus, hoe langer deze in het auditief-sensorisch geheugen kan blijven hangen.

Ook in het auditief sensorisch geheugen vindt passieve uitdoving van stimuli plaats.

Crowder en Morton (1969) lieten proefpersonen rijtjes cijfers lezen en terugrapporteren in drie condities: in zichzelf lezen (“silent”), hardop voorlezen (“active vocalization”) en meelezen met een bandje waarop de letters werden voorgelezen (“passive vocalization”).

In de passive en active vocalization condities werden er nauwelijks fouten gemaakt (0-10%) in het laatste cijfer, terwijl in de silent conditie het foutenpercentage voor het laatst gelezen cijfer rond de 50% lag. Dit noemt men het modaliteit effect: betere herinnering van de laatste items in een lijst wanneer het om auditieve stimuli gaat in plaats van visuele)

Crowder noemde het auditief sensorisch geheugen “precategorical acoustic storage”, en bedoelde daarmee dat stimuli nog niet herkend en gecategoriseerd werden, alleen opgeslagen.

Ook het auditief sensorisch geheugen is gevoelig voor uitwissing. Crowder voegde een conditie toe aan zijn experiment waarin proefpersonen na de lijst items ofwel een toon, ofwel het woord “zero” hoorden, zogenaamd als signaal dat ze konden beginnen met het opzeggen van de onthouden cijfers. Het horen van een toon bleek de prestatie niet te beïnvloeden, maar wanneer het woord “zero” werd gehoord ging het foutenpercentage in de laatste cijfers omhoog. Dit waarschijnlijk omdat de stimulus “zero” leek op de stimuli in de lijst; de neutrale toon had geen invloed.

Auditieve patroonherkenning

Het idee van templates (oftewel iedere stimulus vergelijken met een database van opgeslagen concepten) is moeilijk toe te passen op het gehoor en zeker niet op taal. Mensen spreken klanken en woorden allemaal weer net anders uit en met een andere stem, en klanken en woorden verschillen weer met de context of het woord waarin ze gebruikt worden. Dit noemen psycholinguïsten “problem of invariance”: spraakklanken variëren steeds.

Ook het feature detection model geeft moeilijkheden: context is erg belangrijk in auditieve waarneming, niet alleen de fysieke stimuli. Bijvoorbeeld:

- Pollack & Pickett (1964) lieten proefpersonen naar bandjes luisteren waarop converserende mensen waren opgenomen. Wanneer de bandjes gewoon afgespeeld werden, kon men alle woorden makkelijk identificeren. Wanneer afzonderlijke woorden uit de bandjes “geknipt” werden en los afgespeeld, werd maar de helft herkend: context is belangrijk!

- Warren & Warren (1970) lieten mensen naar bandjes luisteren waarin een kenmerkende klank (foneem) uit een woord in een zin was weggeknipt.

Proefpersonen identificeerden makkelijk het bedoelde woord en hoorden vaak niet eens dat er iets uitgeknipt was. (bijvoorbeeld: i.p.v. “Ik las een spannend boek” hoorde de proefpersoon “Ik las een spannend -oek”).

Back to top

Deel 4 Aandacht

Belangrijke vragen zijn: wat betekent aandacht, waarom kunnen we in sommige situaties beter onze aandacht vasthouden dan andere en in hoeverre hebben we controle over aandacht?

Vier belangrijke punten van aandacht:

  1. We ontvangen continu veel meer informatie dan waar we aandacht aan kunnen besteden.
  2. De hoeveelheid stimuli waar we tegelijk onze aandacht op kunnen richten is begrensd.
  3. Aan het verwerken van sommige informatie en het uitvoeren van sommige taken hoeven we nauwelijks aandacht te besteden.
  4. Door te oefenen vergen taken steeds minder aandacht.

Twee algemene definities van aandacht:

1) Aandacht is een mentaal proces: het concentreren van mentale activiteit (“effort”) op een interne of externe stimulus of proces. Mentale activiteit bestaat uit herinnering, zoeken van info en focussen.

Bijvoorbeeld: om een onduidelijk plaatje herkennen moet je je aandacht er een tijd op richten

2) Aandacht is een beperkte hoeveelheid mentale energie.

Oftewel: aandacht is een soort mentale brandstof die je voor allerlei processen nodig hebt, en je kunt niet oneindig veel aandacht “gebruiken” (richten). Je kunt bijvoorbeeld waarschijnlijk niet lezen en tegelijkertijd hardop terugtellen in stappen van 3.

Hieronder volgen zes verschillende betekenissen van aandacht, geschaard onder input aandacht en gestuurde aandacht. Input aandacht is het basisproces van verkrijgen van sensorische informatie in het cognitieve systeem.

Basale input aandachtsprocessen

De drie soorten input aandacht staan aan het begin van het verwerkingsproces. Over het algemeen gaat het om grotendeels automatische, reflexieve snelle processen met een lage informatie-inhoud.

1) Alertheid of “arousal”

De eerste stap in aandacht is het “wakker” of alert zijn van het zenuwstelsel, dit wordt arousal genoemd. Dit is nodig om te kunnen interacteren met de omgeving. Het “reticular activating system”(RAS) ligt in de lage hersenstam en zorgt op fysiologische niveau voor arousal.

Je hebt expliciete en impliciete verwerking. Bij expliciete verwerking ben je je bewust van het proces dat plaatsvindt en van het resultaat van dat proces. Bij impliciete verwerking ben je je niet bewust van het proces dat plaatsvindt: het gaat voornamelijk automatisch en dus onbewust.

Ook al is wakker zijn belangrijk voor aandacht, alertheid is nog belangrijker om de omgeving te blijven screenen op nieuwe of belangrijke gebeurtenissen. Het kan erg lastig zijn om deze aandacht vast te houden, zeker als het over een langere periode gaat. Het houden van aandacht voor een lange periode waarin vrij weinig gebeurt, bijvoorbeeld monitor-werk, wordt vigilance of sustained attention genoemd.

Er is veel onderzoek gedaan naar aandacht. Er wordt een vermindering van aandacht waargenomen naarmate de taak langer duurt. Tussen 20-35 minuten is de aandacht compleet verdwenen. Het is dan niet zo dat er bij de taak geen verschil meer wordt waargenomen, maar de respondent reageert gewoon niet meer.

Vigilance kan ook beïnvloed worden door de staat waarin de persoon verkeert (bijv. warm of koud).

Bonebakker (1996) deed interessant onderzoek naar impliciet geheugen. Hij liet chirurgie-patiënten twee rijtjes woorden horen, één voor de operatie en één tijdens de operatie (dus onder narcose). Na de operatie werd patiënten gevraagd woorden af te maken waarvan twee beginletters gegeven werden (bijv. als ze het woord “boter” gehoord hadden kregen ze BO... aangeboden). Ze werden geïnstrueerd om woorden die ze zich expliciet herinnerden gehoord te hebben, niet te noemen. Patiënten bleken zich woorden die ze vóór narcose hadden gehoord expliciet te herinneren: ze noemden deze niet bij de recall. Woorden die ze tijdens de narcose hadden gehoord vulden ze wel in: ze herinnerden zich deze woorden impliciet, niet expliciet, en hoefden ze dus niet te “censureren”.

2) Oriënterende reflex en Attention capture

Het reflexmatige verschuiven van aandacht naar een onverwachte stimulus, bijvoorbeeld een hard geluid is een oriënterende reflex. Deze oriënterende reflex is puur fysiologisch van aard, maar binnen de cognitieve psychologie wordt meer op de mentale aard gelet. Het cognitieve deel van deze verplaatsing van aandacht wordt attention capture genoemd; spontane verschuiving van aandacht naar stimuli in de wereld gebaseerd op fysieke aspecten.

Deze functies zijn vanuit een evolutionair perspectief om de locatie van de onverwachte (en wellicht gevaarlijke) stimulus te bepalen. Dit gebeurt via de “where-pathway” in de hersenen, die van de visuele cortex naar de bovenkant van het dorsale deel van de pariëtaalkwab.

Er bestaat ook een “what-pathway” dat zich bezig houdt met het herkennen van objecten; het ventrale pad.

De oriënterende reflex vindt plaats wanneer een stimulus voor het individu van belang is en wanneer deze nieuw is (tegen een onveranderende en/of bekende achtergrond). Om te bepalen of een stimulus van belang is, worden de emoties ingeschakeld. Emoties en aandacht gebruiken een deel van dezelfde neurale delen, zoals de amygdala en delen van de frontale kwabben. Emoties kunnen via deze weg de aandacht sturen (je zult bijvoorbeeld meer aandacht hebben voor een enge stimulus, zoals een slang).

Aandacht kan ook gestuurd worden door sociale signalen, zoals andere mensen die ergens naar kijken. Verder geef je vaak aandacht aan dingen die nieuw zijn of veranderen, zoals een beweging, een verandering van kleur, dikgedrukte letters.

Naarmate de nieuwe stimulus zich vaker voordoet, wordt de oriënterende reflex steeds minder tot de baseline bereikt is: habituatie.

3) “Spotlight” aandacht en visueel zoeken

Visuele aandacht kun je vergelijken met een spotlight: net zoals je oog een fovea heeft waarmee het meeste detail gezien wordt, kun je ook je mentale focus op een bepaald punt in je gezichtsveld leggen. Je verschuift dan dus niet je oog naar dat punt, maar alleen je (mentale) aandacht.

In een experiment door Posner moesten proefpersonen hun aandacht fixeren op een punt in een display, zoals een plusteken. Ze kregen vervolgens een cue, zoals een pijltje, waarover een visuele stimulus zou opduiken te zien en moesten op een knop drukken zodra ze die stimulus waarnamen. Tijdens dit hele proces moesten ze hun visuele aandacht echter op het eerste punt houden. Wanneer de cue de correcte richting aanwees (een valid trial), was de response sneller dan baseline (zonder cue): dit noemt men facilitatie. Wees de cue in de verkeerde richting (een invalid trial), dan was de respons langzamer dan baseline; dit heet “cost” (het kost meer tijd).

Posner concludeerde dat een individu zonder oogbewegingen zijn mentale aandacht kan verplaatsen. Aandacht is dus op te vatten als een cognitieve spotlight die mentaal te sturen valt.

Spotlight aandacht verschilt van de oriënterende reflex in dat ze bewust en gestuurd is, terwijl de oriënterende reflex een reflexmatige respons op een externe stimulus is. Spotlightaandacht is een mentale aandachtfocus mechanisme dat je voorbereidt op het encoderen van stimulus info

Een vraag is nog of bij het verplaatsen van de spotlight de tussenliggende informatie ook wordt verwerkt, of dat het meer zoals visuele saccades gaat, met sprongetjes. Er is ook enig bewijs dat de grootte van de spotlight kan veranderen, en dat informatie in het midden van de spotlight het beste wordt verwerkt.

Visueel zoeken

Treisman en haar collega’s deden een serie experimenten naar visueel zoeken. Proefpersonen kregen een display met letters waarin ze een item moesten zoeken die voldeden aan één van twee simpele kenmerken (bijv. de letter “S” of een groene letter) of aan een combinatie van twee kenmerken (bijv. een groene letter “K”). Het eerste noemt men “feature search” (disjunction search); deze vorm van zoeken gaat erg snel, en de grootte van de display waarin gezocht moet worden heeft nauwelijks invloed, wat suggereert dat het om snelle, automatische, parallelle verwerking gaat. Zoeken naar twee kenmerken heet “conjunction search”; dit neemt aanzienlijk meer tijd in beslag en de grootte van het display hangt samen met de tijd die nodig is om het item te vinden. Hierbij is meer seriële, bewuste verwerking nodig, en die kost tijd.

Een mechanisme dat mensen helpt bij een zoektaak is de inhibition of return. Recent bekeken plekken worden door aandacht opgeslagen en er wordt later niet meer naar terug gekeerd. Hierdoor blijft men niet altijd het gedeelte checken waar hij al gezocht heeft. Dit is zowel een belangrijk visueel proces als kennis over waar objecten zich bevinden in de ruimte.

Een kanttekening is dat de overige letters/items in het display wel invloed hebben, bijvoorbeeld: vertonen ze overeenkomsten met de target stimulus?

Het verschil tussen input aandacht en gestuurde aandacht is dat input aandacht vooral data-gedreven is, snel, parallel en automatisch verloopt en gelinkt is met het posterieure deel van de hersenen. Gestuurde of gerichte aandacht daarentegen is langzamer, bewust en gestuurd. Gerichte aandacht is meestal meer conceptueel gestuurd (top down), maakt gebruik van seriële verwerking en is meer in de frontale delen van de hersenen gelokaliseerd.

Contrasterende input en gestuurde aandacht

Er zijn dus twee soorten aandacht, de eerste is aandacht gevangen door een “pop-out”, namelijk input attention en een langzamere vorm van aandacht, die gebruikt wordt voor conjunction search, namelijk controlled attention.

De input attention werkt snel, waarmee je vaak in één oogopslag ziet waar een object zich bevindt. Met controlled attention zoek je op een bewustere manier de omgeving af.

Hemineglect: een aandachtsstoornis

De processen van mentale aandacht zijn vaak zo nauw verbonden met perceptie en vrijwillige bewegingen, dat hemineglect voor veel mensen moeilijk voor te stellen is. Hemineglect is een stoornis in de mogelijkheid om je aandacht te verplaatsen naar (vaak) de linkerkant van een object. Hierbij wordt een helft van de wereld genegeerd. Hersenbeschadiging dat hemineglect veroorzaakt vindt dus vaak in de rechterhersenhelft plaats. Patiënten met hemineglect kunnen hun aandacht slecht verplaatsen naar het andere visuele veld. Het heeft dus niets met blindheid te maken.

Een hemineglectpatiënt kan redelijk presteren op Posners taak (met de cue over de getoonde stimulus). Dit kan alleen doordat er verder geen objecten zijn in het gezichtsveld die de aandacht van de patiënt opeisen. Als er wel een dergelijke stimulus wordt getoond in het ipsalaterale veld (het veld waar normaal wel aandacht aan wordt geschonken) en het contralaterale veld dus weer genegeerd wordt, wordt dit extinction genoemd.

De input attention van de patiënt gaat automatisch naar het ipsalaterale veld en deze aandacht kunnen ze niet vrijwillig verplaatsen.

Gestuurde, vrijwillige aandacht

Dit behelst het bewust en moedwillig inzetten van mentale energie of concentratie (op bepaalde taken). Zogezegd expres je aandacht ergens op richten, je kiest zelf waarop.

Selectieve aandacht maakt het mogelijk dat je je aandacht ergens op kan richten en andere dingen in de omgeving kan negeren. Ook kun je je aandacht verdelen, zoals op een feestje het geroddel rechts van je volgen en ondertussen toch een gesprek hebben met de persoon links. Echter, als je echt actief aandacht ergens op wilt richten, kan aandacht niet verdeeld worden.

4) Selectieve aandacht

Het richten van aandacht op één informatiebron, daarbij andere stimuli negerend. Het mentaal negeren of elimineren van ongewilde input heet filteren of selecteren. Aandacht kan losstaan van oogbewegingen, je kunt je aandacht ergens op richten zonder er naar te kijken.

In auditieve perceptie wordt dit vaak getest met behulp van zogenaamde duale taken (ook wel de duale berichten procedure). Hierbij worden verschillende auditieve berichten aangeboden, waarvan één het grootste deel van de aandacht opeist.

Cherry’s shaduwexperimenten zijn een goed voorbeeld. Hij liet proefpersonen in elk oor een verschillende gesproken tekst horen en vroeg hen de boodschap uit één oor hardop en simultaan te herhalen. Dit lukte wel, maar kostte veel aandacht: proefpersonen herhaalden de boodschap met weinig intonatie en herinnerden zich bijna niets van de inhoud. Van de “unattended” boodschap uit het andere oor konden ze alleen grove fysieke kenmerken onderscheiden, geen enkel inhoudelijk kenmerk.

Broadbent (1958) ontwikkelde een filter theorie voor auditieve informatie, wat ook wel de vroege selectie-theorie wordt genoemd. Uit alle inkomende boodschappen wordt er slechts één geselecteerd door een selectieve filter. Alleen het gefilterde bericht werd doorgestuurd naar de “limited capacity decision channel” (vergelijkbaar met het korte termijngehugen) en heeft zo invloed op gedrag en geheugen. Dit model is achterhaald omdat gebleken is dat mensen wel degelijk informatie uit de niet-geselecteerde (“unattended”) boodschappen halen, zoals bijvoorbeeld wanneer je je naam hoort vallen op een druk feestje; coctail-party effect.

Treisman’s attenuation theory

Treisman herhaalde Cherry’s schaduwexperimenten, maar met meer en subtielere variaties. Treisman’s theorie wordt ook wel de late selectie theorie genoemd.

Ze kwam tot de volgende ontdekkingen:

- indien de fysieke kenmerken (mannen- of vrouwenstem, intonatie, volume) van de twee boodschappen verschillen, wordt op basis van fysieke kenmerken de aandacht op één van de boodschappen gericht. Dit wordt Stadium 1 of vroege selectie genoemd.

- indien de fysieke kenmerken niet verschillen (beide boodschappen door dezelfde persoon ingesproken) is er geen vroege selectie mogelijk. In dit geval wordt de selectie op basis van inhoud gemaakt. Dit noemt men Stadium 2 of late selectie.

Wanneer in deze conditie een zin uit het oor waar de aandacht op gericht was, halverwege werd overgenomen door het andere (unattended) oor, ging de proefpersoon (bij het herhalen van de zin) ook over op dat oor. Het blijkt dus dat enige inhoudelijke informatie uit het unattended kanaal wel wordt verwerkt.

Kennelijk worden berichten vrijwel onafhankelijk van fysieke kenmerken onbewust gevolgd. Als namelijk de zin die in het aandachtige oor wordt verteld, verder gaat met andere fysieke kenmerken in het onaandachtige oor, blijft de proefpersoon de zin volgen. Treisman stelde een model voor waarin, na een soort basis-analyse van o.a. fysieke kenmerken, alle verschillende input door het filter gaat. De berichten worden in stadium 2 pas gefilterd: op basis van inhoud. Oftewel: aandacht wordt beïnvloed door semantische inhoud, een top-down proces. Hoe gaat dit dan in zijn werk?

Een andere vorm van je aandacht niet op een gewenste manier gebruiken, is mind wandering. Hierbij vermindert je aandacht van de taak waar je mee bezig bent naar iets irrelevants. Gedachten en aandacht wordt op dat moment naar binnen gericht. Dit zal sneller gebeuren als je iets saai vindt dan als je ergens door geboeid wordt.

Norman bedacht weer een nieuw model, het “pertinence model”. Inkomende auditieve informatie ontvangt aandacht op basis van sensorische activatie en pertinentie. Sensorische activatie is hoog wanneer de input hard of van een opvallende klanksoort is, of op andere wijze “eruit springt”. Pertinentie betekent de belangrijkheid of relevantie van de input. Dit kan relevantie op korte (bijvoorbeeld zincontext) of lange termijn (persoonlijke interesse) zijn. De input met de hoogste opgetelde waarde van sensorische activatie en pertinentie krijgt de meeste aandacht.

Veel informatie gaat over het schenken van aandacht ergens aan, maar er zijn ook mechanismen die juist irrelevante stimuli filteren.

Inhibitie is een mechanisme dat actief informatie onderdrukt. In een onderzoek van Tipper (1985) werden steeds tekeningen van 2 objecten laten zien waarvan de ene groen was en de andere rood. De proefpersoon moest zo snel mogelijk het rode object benoemen. Als in de volgende ronde de kleuren van de objecten omgedraaid waren, deed de proefpersoon er langer over om het rode object te benoemen. Deze vertraging wordt negative priming genoemd. Hetzelfde object wat de eerste keer rood is en daarna groen, activeert nog steeds de mentale representatie door zijn vorm, maar staat in de weg bij het benoemen van het rode object. Omdat bij deze taak de vorm irrelevant is, onderdrukt de aandacht deze actief. Het benoemen duurt langer omdat de vorm overeenkomt met het rode object uit de vorige ronde.

Gecombineerd model van aandacht

Selectieve aandacht kan vroeg of laat in de verwerking van informatie voorkomen, en wordt beïnvloed door zowel tijdelijke als permanente factoren.

Johnston & Heinz (1978) stelden dat selectieve aandacht in verschillende processen (“modes”) kan voorkomen: vroeg (sensorisch, stadium 1), midden (betekenis, stadium 2) en laat (bewustzijn, stadium 3). Echter: hoe later het proces, hoe meer aandacht gevergd wordt.

Ze demonstreerden dit door proefpersonen naar verschillende boodschappen te laten luisteren, waarbij ze zich op één boodschap moesten richten en de inhoud moesten onthouden. De andere boodschappen verschilden in fysieke of inhoudelijke kenmerken, of in beide. Tegelijkertijd moesten de proefpersonen een simpel reactietaakje uitvoeren. Reactietijden werden langer vergeleken met de baseline wanneer men tegelijkertijd naar een boodschap moest luisteren.

Selectie op basis van inhoud (stadium 2, een later proces) vergde meer aandacht dan selectie op basis van fysieke kenmerken (stadium 1). Dit werd gereflecteerd door langere reactietijden (een groter deel van de beperkte “hoeveelheid” aandacht werd gebruikt om te luisteren, er was dus nog minder voor het RT taakje).

Mentale mogelijkheden en bewuste verwerking

Zoals gezegd is de hoeveelheid aandacht gelimiteerd: we kunnen maar een beperkt aantal taken tegelijk doen. De effectiviteit wordt enorm vergroot wanneer we leren om bepaalde taken of processen automatisch uit te voeren. Een voorbeeld van de grenzen van onze aandacht is de ´psychological refractory period´ of ´attentional blink´. Dit is een kortdurende vertraging van de mentale verwerking, doordat korte tijd daarvoor een andere stimulus verwerkt is.

Er zijn twee belangrijke theorieën over “automaticity” (het vermogen bepaalde perceptuele en cognitieve taken automatisch uit te voeren, dus zonder bewuste aandacht te “verbruiken”) die in grote lijnen hetzelfde zijn, die van Posner & Snyder (1975) en die van Shiffrin & Schneider (1977). Ze worden hier daarom als één theorie besproken.

Criteria voor automatische verwerkingsprocessen:

a) Het proces gebeurt zonder opzet of bewuste keuze. Als het begint, kun je het niet stoppen.

Een goed voorbeeld van het eerste criterium is de Stroop taak, waarin namen van kleuren (rood, geel etc) in gekleurde inkt geschreven waren die niet overeenkwam met de naam van de kleur (bijv. het woord “rood” in groene inkt geschreven).

Proefpersonen werd gevraagd de kleur van de inkt voor te lezen, maar de geschreven woorden zorgen voor enorme interferentie en daardoor vertraging.

Priming: een geschreven woord activeert automatisch de betekenis in het geheugen (en daardoor worden woorden met gerelateerde betekenissen weer sneller herkend).

b) Het proces zelf is niet toegankelijk voor bewustzijn of introspectie.

Je kunt bijvoorbeeld de stappen van automatische processen niet beschrijven zoals je dat bij rekenstappen wel kunt.

c) Er worden weinig mentale “resources” of aandacht gebruikt.

Automatische processen interfereren daarom ook niet met andere, bewuste processen.

d) Proces is meestal erg snel (< 1 sec).

Criteria voor bewuste verwerkingsprocessen:

  • gebeurt alleen met opzet, door een bewuste beslissing.
  • toegankelijk voor bewustzijn en introspectie.
  • gebruikt bewuste mentale energie en dus een bepaalde capaciteit aan aandacht.
  • duurt meestal langer (> 1 sec of > 2 sec).

Bewuste verwerkingsprocessen hangen vaak samen met conceptgedreven processen. Voorbeeld: de schaduwtaak waarbij op basis van semantische inhoud één van twee boodschappen geselecteerd moet worden. Doordat het eerste deel van een zin een bepaalde semantische context activeert, verwachten de hersenen als het ware gerelateerde informatie. Na een zin die begint met “Jantje loopt in het bos...” verwacht je eerder het woord “boom” dan het woord “robot.” Omdat in de unattended boodschap een context-relevante zin wordt gezegd, switch je vanzelf naar die boodschap. Dit is weer een voorbeeld van top-down verwerking.

Oefening en geheugen spelen een belangrijke rol in automatische verwerking. Bijna alle taken worden makkelijker en vergen minder aandacht als je ze vaak oefent. Schneider & Shiffrin lieten proefpersonen target items zoeken in een display. Indien de targets altijd hetzelfde waren (bijvoorbeeld cijfers) werden ze naarmate ze meer trials deden steeds sneller: ze ontwikkelden automatische detectieprocessen (vanaf ca 600 trials).

Wanneer de taak daarna werd veranderd, zodat items die eerst targets waren, nu afleiders waren van nieuwe targets, duurde het weer hetzelfde aantal trials voordat deze nieuwe taak geautomatiseerd werd.

Als steeds verschillende targets gebruikt werden (bijvoorbeeld afwisselend letters en cijfers of combinatie van letters en cijfers) bleven proefpersonen bewuste verwerking gebruiken omdat ze steeds moesten switchen.

Hoe automatischer een taak uitgevoerd kan worden, hoe meer mentale energie (resources) er beschikbaar is voor andere taken en processen. Over het algemeen heb je genoeg “attentional resources” om één moeilijke of twee makkelijke taken tegelijk te doen, en alleen met heel veel oefening kun je meerdere taken tegelijk doen (zoals de twee proefpersonen van Spelke et al. die na lang oefenen tegelijkertijd gedicteerde woorden konden opschrijven (en zelfs categoriseren) en een verhaal voor zichzelf lezen (en begrijpen).

Nadelen van automatische processen

Er kan sprake zijn van zogenaamde ‘action slips’, wat onbedoelde automatische acties zijn die niet bruikbaar zijn voor de actuele situatie.

Ze kunnen moeilijk weer “ontleerd” worden, en er zijn gevallen waarin het niet gewenst is dat processen te automatisch worden, omdat er dan minder nauwkeurigheid is. Barshi & Healy lieten bijvoorbeeld proefpersonen herhaaldelijk rijtjes met vermenigvuldigingen zien, waarin 5 fouten verstopt zaten. Wanneer de sommen steeds in dezelfde volgorde stonden werden de fouten minder vaak gevonden dan wanneer ze bij elke aanbieding in een andere volgorde stonden.

Steeds dezelfde rijtjes scannen leidt namelijk tot automatisering en daardoor minder bewuste aandacht voor het detecteren van fouten. Dit is in dagelijkse situaties lastig als er bijvoorbeeld met checklists gewerkt wordt (zoals in vliegtuigen): fouten worden minder snel gespot doordat steeds automatischer door de bekende, voorspelbare lijst heengegaan wordt.

6) Overkoepelend aandachtssysteem

Dit is bijna synoniem met korte termijn/werkgeheugen, waar in het volgende hoofdstuk aandacht aan besteed wordt.

Back to top

Deel 5 Het korte termijn- of werkgeheugen

Verschillende namen voor dit geheugen zijn, in het Engels: primary memory, immediate memory, short-term memory (STM), temporary memory, supervisory attention system (SAS) en working memory.

In het Nederlands: korte termijn geheugen (KTG) of werkgeheugen. De term korte termijngeheugen is ouder en wordt vooral geassocieerd met het (tijdelijk) opslaan van nieuwe info. De nieuwere term werkgeheugen heeft meer te maken met de “mentale werkplaats: het werkgeheugen is de plaats waar informatie tijdelijk vastgehouden en actief verwerkt wordt, waar de mentale processen plaatsvinden en waar selectieve aandacht “verbruikt” wordt. In het werkgeheugen vinden echter ook automatische, onbewuste processen plaats.

Korte termijngeheugen: beperkte capaciteit

De meeste mensen kunnen 7 units (+/- 2), zoals cijfers of losse woorden, in het werkgeheugen opslaan (dit komt ongeveer overeen met het aantal woorden/cijfers dat in 2 sec. hardop gezegd zou kunnen worden of dat je in 4-6 sec. kan reproduceren).

Aangezien het lange termijngeheugen praktisch ongelimiteerd is en ook de zintuigen enorm veel informatie kunnen ontvangen en doorsturen, blijkt dat het werkgeheugen als een soort flessenhals werkt: de hoeveelheid informatie die verwerkt kan worden wordt erdoor beperkt.

In het geval van losse items onthouden, kun je de flessenhals van het werkgeheugen omzeilen door items te groeperen. Je kunt bijvoorbeeld maar 7 losse letters onthouden, maar als je ze samenvoegt in woorden of zinnen kun je er veel meer onthouden. Ook cijfers kun je in 2-getallige cijfers transformeren om er meer te onthouden. Miller (1956) noemt dit een “chunk” informatie: een complexer item. Door deze tactiek te gebruiken kun je meer info onthouden.

Recoderen

Het samenvoegen van informatie en de nieuw gevormde groepen onthouden in chunks heet recoderen. Het reduceert het aantal te onthouden items, maar de chunks zijn wel rijker aan informatie, complexer. Recoderen kost wel moeite en aandacht. Doel is vooral om aan losse units betekenis te verlenen door ze samen te voegen. Een goed voorbeeld van recoderen is “iets in je eigen woorden herhalen of navertellen”.

Twee aannames:

- we kunnen recoderen als we genoeg tijd oftewel mentale energie hebben om een recoderings-schema toe te passen.

- we kunnen recoderen wanneer het recoderingsschema een goed geoefende strategie is.

Een goed geleerde oefen- of recoderingsstrategie noemt met een mnemonic device. Het lange termijngeheugen (LTG) speelt een belangrijke rol, omdat kennis uit het LTG gebruikt wordt om de recoderen, en omdat de recoderingsstrategie zelf is opgeslagen in het LTG,

Brown (1958) en Peterson & Peterson (1959) onderzochten beiden het fenomeen uitdoving (decay) in het korte termijngeheugen. Vergeten wordt veroorzaakt door het voorbij gaan van tijd. Dit werd getest met de Brown-Petersontaak. Ze lieten proefpersonen een set van drie letters zien, gevolgd door een driecijferig getal. Proefpersonen moesten hardop terugtellen in stappen van drie vanaf dit nummer, twee stappen per seconde, en werden na een bepaalde (variabele) tijd gevraagd naar de drie letters. Al na drie seconden terugtellen wisten proefpersonen nog maar 50% van het display, na 18 sec nog maar 5%. De onderzoekers weten deze snelle deterioratie in recall aan uitdoving.

Kritiek op hun onderzoeken was dat Brown, Peterson en Peterson ervan uitgingen dat terugtellen alleen afleiding was om te voorkomen dat proefpersonen de letters konden “rehearsen”.

Letters en cijfers lijken echter toch zodanig op elkaar dat de afleidingstaak in dit geval ook actieve interferentie veroorzaakte. Uitdoving was dus misschien wel helemaal niet de oorzaak van de verslechterende recall, maar interferentie wel.

Waugh & Norman (1965) lieten proefpersonen 16 cijfers horen, gevolgd door een in de reeks genoemd cijfer als cue. Proefpersonen moesten het cijfer dat in de lijst na de cue kwam, opschrijven (bijv. na een cijferreeks met daarin de sequentie 4 6 2 8 zou de cue 6 het antwoord 2 moeten opleveren). Door de snelheid waarmee de cijfers werden voorgelezen te veranderen kon afgeleid worden of het vergeten van cijfers door uitdoving of interferentie kwam (bij een langzame, dus langere sequentie zou meer uitdoving plaatsvinden). Snel of langzaam voorlezen maakte geen verschil, wel het aantal cijfers dat na de “target” nog was voorgelezen: interferentie zorgt dus voor vergeten, niet uitdoving.

Noot hierbij is dat de enige manier om uitdoving te testen een lege interval na een stimulus zou zijn. Maar in dat geval gaan proefpersonen de stimulus juist oefenen (rehearsal) en vergeten ze hem niet. Een taak tussendoor zorgt echter weer voor interferentie: het is dus onmogelijk om goed te onderzoeken.

Het idee van uitdoving word echter sterk tegengesproken, bijvoorbeeld door het gegeven dat verschillende moeilijkheidsgraden van interferentietaken verschillende invloed hebben op het herinneren van simpele stimuli. In het dagelijks leven zal er trouwens niet eens tijd zijn voor uitdoving, omdat niet-gebruikte informatie meteen vervangen wordt door nieuwe input, al is het alleen maar input door dagdromen.

Nog een lastig fenomeen is pro-actieve interferentie (PI): oude, eerdere gegevens hebben een interfererend effect op het onthouden van een huidige stimulus. Op de Brown-Peterson taak bijvoorbeeld bleken proefpersonen de eerste trial de letters wél goed te onthouden, maar in de latere trials raakten ze in de war door de letters uit eerdere trials. Wanneer echter in een volgende trial een andere soort stimulus onthouden moet worden (bijv. woorden i.p.v. letters) schiet de recall weer omhoog. Dit noemt men “release from PI”, oftewel bevrijding van PI.

Retroactieve interferentie (RI) betekent dat nieuw geleerde informatie interfereert met het onthouden van eerder gepresenteerde informatie.

In een recente uitdovingstheorie van Altmann en Gray (2002) wordt gesteld dat wanneer een stimulus regelmatig veranderd de uitdoving sneller plaats zal vinden.

Een voorbeeld: wanneer er door veel wegwerkzaamheden elke week andere wegen afgesloten zijn, wordt sneller vergeten welke wegen vorige week afgesloten waren, dan wanneer dit niet vaak wijzigt. Volgens de onderzoekers is dit van belang, omdat het onthouden van de huidige wegwerkzaamheden mede afhangt van het vergeten van de vorige.

Terughalen van informatie (retrieval) uit het korte termijn geheugen

Seriële positioneringscurves: Wanneer een reeks items in een bepaalde volgorde wordt aangeboden kan men van de recall een grafiek maken waarin per item wordt aangegeven hoe goed het onthouden is. Dit heet een “serial positioning curve” oftewel een seriële positioneringscurve (zie figuur 2.2), en je kunt er goed de invloed van positionering in de lijst (bijv. vooraan of achteraan in de reeks) op recall van items mee onderzoeken.

Je hebt twee soorten recall (herinnering): free recall (je mag de items in willekeurige volgorde terugrapporteren) en serial recall (je moet je items in dezelfde volgorde terugrapporteren).

Primacy effect: de nauwkeurigheid van het terugrapporteren van items aan het begin van de reeks. Items in het begin van de reeks kunnen vaak beter gerepeteerd worden en daardoor onthouden. De term “primacy” refereert aan het onthouden van items aan het begin van de lijst.

Recency effect: de nauwkeurigheid van het terugrapporteren van items aan het eind van de reeks. Items aan het eind van de reeks worden vaan onthouden omdat ze als het ware nog “nagalmen” in het korte termijngeheugen. De term “recency” refereert aan het onthouden van items aan het eind van de lijst.

Items aan het eind van de reeks worden het best onthouden, daarna items in het begin van de reeks en items in het midden van de reeks worden erg slecht onthouden.

Een afleidende, interfererende taak tussen aanbieding en recall in zorgde voor een verminderde recency, terwijl primacy nauwelijks beïnvloed werd. Dit wijst erop dat eerdere items inderdaad (door rehearsal) in het LTG worden opgeslagen en dus onthouden, terwijl de laatste items alleen in het KTG worden opgeslagen en dus gevoelig zijn voor interferentie.

Langere tijd tussen het aanbieden van items zorgt voor betere primacy omdat er meer tijd is om te repeteren.

Sternberg kwam met een nieuw idee om op basis van RT’s te testen hoe lang mentale processen duurden. Voorheen werd dit gedaan door proefpersonen d.m.v. een taak een serie mentale processen te laten doorlopen (bijv. A+B+C), waarna met een andere taak slechts een gedeelte van die processen werd doorlopen (bijv. A+C). Wanneer je dan de tijden van elkaar aftrekt heb je een schatting van de tijd die het weggelaten proces in beslag neemt (B = (A+B+C) – (A+C)).

Dit is echter lastig, want het is moeilijk te zeggen of de ingreep in de processen die processen en de tijd die ze gebruiken niet veranderen.

Sternberg had een nieuw idee: geen aftreksom maar een optelsom. Hij verzon taken waarin een bepaald proces in een serie meerdere (gecontroleerde variërende aantallen) malen herhaald moest worden. Bijvoorbeeld in plaats van proces A+B+C, proces A+B+B+C of A+B+B+B+B+C.

Sternberg’s taak bestond uit het hardop voorlezen van rijtjes letters met variabele lengte (van 1 tot 6). Na het horen van het rijtje kreeg de proefpersoon een letter te zien, waarvan hij moest aangeven of hij wel of niet in het opgelezen rijtje voorkwam door op een knop te drukken.

De tijd ging lopen bij het aanbieden van de letter en stopt bij het drukken op de knop. De proefpersoon maakt vervolgens de volgende mentale stappen, via het process-model:

Letter lezen (coderen) → Items in het KTG scannen en vergelijken met de target → Ja/nee beslissing nemen → motorische respons. Aangezien iedere letter in de aangeboden set gescand en vergeleken met de target moet worden, wordt deze stap zovaak herhaald als er letters in de aangeboden set zijn.

Door de lengte van de set te variëren kon Sternberg dus een schatting maken hoelang een “scan cyclus” duurde.

Hij zorgde daarbij wel dat, in de gevallen waarbij de target wél in de lijst voorkwam, de plaatsing van de target (in de reeks) gelijk verspreid was over de trials. Dus het target stond even vaak op de 4e plaats in de reeks als op de 2e plaats in de reeks.

Uit Sternberg’s resultaten bleek dat bij elk additioneel item in de set de RT met ongeveer 38 ms verlengd werd. Dit suggereert dus dat elke scan cyclus 38 ms duurt.

Je zou verwachten dat wel-trials gemiddeld korter duren, omdat zodra er een match gevonden is (dit kan al in het begin van de reeks voorkomen) het scannen wordt gestopt en een antwoord gegeven kan worden, dit wordt serial selftermnating search genoemd. Bij een niet-trial moet je alle items scannen voordat je kunt concluderen dat de target er niet tussen zit. Dit bleek, interessant genoeg, niet het geval: de RT’s voor wel- en niet- trials waren gelijk. Dit suggereert dat bij elke trial alle items in het KTG gescand worden, ook al wordt er al vroeg in de reeks een match gevonden. Dit noemde Sternberg zoeken op de “serial exhaustive” manier.

Parallel zoeken: elke positie in het geheugen wordt tegelijkertijd gezocht, maar dit klopt niet, want er zou geen verhoging zijn van de reactietijd, en dit is wel het geval.

De resultaten wijzen volgens Sternberg sowieso op seriële verwerking: bij parallelle verwerking zou je geen verschil in RT zien tussen verschillende lengtes van item-sets. Dit leverde kritiek op. Langere RT’s bij grotere sets zou ook kunnen betekenen dat parallel scannen langzamer gaat naarmate er meer items gescand moeten worden. Ook kwam McClelland (1979) met het idee dat mentale stappen gedeeltelijk zouden kunnen overlappen.

Korte termijn- of werkgeheugen: Baddeley’s model.

Het geheugenaspect van het korte termijn geheugen is wel te onderzoeken met simpele (7 +/- 2) geheugentaakjes en noties als uitdoving en PI. Het oplossen van een rekensom in stappen of het lezen van een ingewikkelde zin met dubbele negatieven is echter niet meer in deze termen te beschrijven, en hier schiet de term “korte termijn geheugen” dan ook tekort.

Baddeley & Hitch (1974) beschreven casus van patiënten die maar één of twee items konden onthouden, maar die wel zinnen konden onthouden en normale overige leer- en geheugenfuncties hadden. Ze concludeerden dat korte termijn geheugen en werkgeheugen niet hetzelfde kunnen zijn, omdat één van de twee zwaar beschadigd kan zijn terwijl de ander grotendeels intact is. Baddeley concludeerde dat het korte termijn geheugen in traditionele zin slechts een onderdeel van een groter werkgeheugen is.

Baddeley stelde het werkgeheugen voor als bestaande uit een centraal “executieve” verwerkingssysteem, met twee “auxiliary systems” (slaafsystemen), een voor auditieve informate, namelijk de fonologische lus en een voor visuele informatie, namelijk het visuospatieel kladblok (zie figuur 5.1). Een derde systeem, de episodische buffer, werd later toegevoegd. Dit systeem integreert informatie met wat al in het werkgeheugen zit met informatie uit het lange termijn geheugen.

De drie systemen zijn de fonologische cyclus (“articulatory/phonological loop”), het ruimtelijk-visueel schetsblok (“visuo-spatial sketchpad”) en de episodische buffer. De systemen dienen om sensorische informatie korte tijd vast te houden en er simpele perceptieprocessen op los te laten, zoals bijvoorbeeld het mentaal roteren van een simpele figuur in het ruimtelijk-visuele schetsblok. De systemen “rapporteren aan” het executieve systeem.

Het centrale executieve systeem

Het centrale executieve systeem is de plaats waar de uiteindelijke verwerking van informatie plaatsvindt: het integreren van informatie van de slaafsystemen, het uitwisselen van informatie met het lange termijn geheugen, taalbegrip, het plannen van acties, redeneren en beslissingen nemen en het aansturen van de slaafsystemen.

De fonologische lus

De fonologische lus is de spraak- en geluid gerelateerde component die er voor zorgt dat je verbale informatie kunt herhalen. De fonologische lus bestaat uit de fonologische opslag, die verbale informatie onthoudt (dit wordt vergeten als het niet geoefend en herhaald wordt) en de articulaire lus, die de informatie uit de fonologische opslag steeds herhaalt en ververst.

Onderzoekers hebben drie effecten gevonden die inzicht kunnen bieden in de werking van de fonologische lus. De eerste is het woordlengte-effect. Hoe langer de woorden zijn die iemand moet onthouden, hoe minder woorden in totaal hij kan onthouden. Het vreemde is dat een even lang woord beter onthouden wordt als het minder lettergrepen bevat of als het korter uitgesproken wordt. Dit komt doordat de articulaire lus er dan minder lang over doet om de woorden uit de fonologische opslag te herhalen.

Het articulaire onderdrukkingseffect houdt in dat iemand een slechter geheugen heeft als hem iets gevraagd wordt terwijl hij iets probeert te onthouden. Het vraagt namelijk ook vermogen van de articulaire lus om ergens antwoord op te geven. Dit lijkt op het irrelevante spraakeffect, waarbij men moeilijker dingen onthoudt als er in de omgeving iets irrelevants gezegd wordt (bijvoorbeeld als je zit te tellen en iemand begint tegen je te praten).

Het fonologische gelijkeniseffect is dat men moeilijker woorden onthoudt die fonologisch gezien op elkaar lijken, dan als ze niet op elkaar lijken.

Het visuo-spatieel sketch pad:

Dit systeem is gespecialiseerd in visuele en ruimtelijke informatie. Dit systeem staat volledig los van het fonologische systeem, waardoor iets vertellen en zien tegelijk goed mogelijk is. Twee dingen door elkaar vertellen of twee dingen proberen te zien, zorgt ervoor dat de capaciteit van de systemen verdeeld moet worden, waardoor de prestatie minder wordt.

Er zijn drie fenomenen die laten zien dat het visuo-spatiele kladblok het mogelijk maakt om de persoon in zijn hoofd te laten interacteren met het getoonde object. Het eerste fenomeen is mental rotation. Hiermee kan iemand mentaal objecten laten draaien. Als je twee objecten moet vergelijken waarvan de één gedraaid is in de ruimte, kun je het object mentaal draaien om te zien of het twee dezelfde objecten zijn. Bij objecten die meer graden verdraaid waren, kostte het proefpersonen ook meer tijd om te beoordelen of de objecten gelijk waren. Het tweede fenomeen is boundary extension, waarbij een getoond plaatje verder wordt afgemaakt door het visuospatiele kladblok. Je ‘misherinnert’ veel. Een herinnering van een trap zal altijd meer treden bevatten dan de werkelijke afbeelding. Dit komt omdat het lange termijngeheugen informatie toevoegt aan de nieuw onthouden informatie. Het derde fenomeen is representational momentum, wat inhoudt dat men denkt te herinneren dat een object verder verschoven is langs een weg, dan in de afbeelding. Dit werd onderzocht met een object die over het computerscherm bewoog. Na een tijdje verdween het object plotseling, waarna proefpersonen aangaven het object verder te hebben gezien dan waar hij verdween. Dit komt doordat het visuospatiële kladblok de beweging simuleert en voorspelt waar het object naar toe beweegt.

De episodische buffer

Dit is het gedeelte van het werkgeheugen waar informatie van verschillende bronnen wordt gekoppeld om nieuwe episodische herinneringen te vormen.

Er is een onderzoek gedaan naar de episodische buffer, waarbij proefpersonen een serie zinnen kreeg te zien, waarbij elk laatste woord van een zin onthouden moest worden. Deze woorden waren fonologisch gelijk, waarbij het fonologische gelijkeniseffect optreedt, en men de woorden slechter zou onthouden. Echter, door de voorafgaande zin, werden de zinnen semantisch begrepen en aan herinneringen verbonden. Proefpersonen presteerden beter op deze taak, dan bij alleen rijtjes van fonologisch gelijk woorden.

Het testen van werkgeheugen

Duale taak methode

Om het werkgeheugen te testen gebruikte Baddeley de duale taak methode. Door een persoon twee taken tegelijkertijd uit te laten voeren, een primaire en een secundaire, kan men kijken in hoeverre interferentie plaatsvindt. Twee taken kunnen totaal onafhankelijk, totaal afhankelijk of gedeeltelijk afhankelijk van elkaar worden uitgevoerd; in het eerste geval worden de prestaties op beide taken niet door elkaar beïnvloed en gebruiken ze beide totaal andere mentale processen of resources.

Meestal is er sprake van gedeeltelijke afhankelijkheid: zodra er een kritiek punt qua moeilijkheid in één of beide taken bereikt wordt, kunnen de taken niet meer goed tegelijkertijd worden uitgevoerd. Door de moeilijkheid van de twee taken te variëren kan dit kritieke punt onderzocht worden. Een voorbeeld van een duale taak is de Brown-Peterson taak, waarbij het terugtellen en het onthouden van cijfers met elkaar interfereerden, in dit geval omdat ze beide het auditieve slave system gebruikten.

Baddeley onderzocht twee andere taken. De primaire, centraal executieve taak was het lezen en als goed of fout beoordelen van uitspraken over een simpele stimulus als AB. Deze uitspraken konden gemakkelijk zijn, zoals: A staat vóór B, of moeilijk, zoals: B staat niet vóór A, of: B wordt vooraf gegaan door A. Er waren vier, in moeilijkheidgraad oplopende categorieën van uitspraken. Als secundaire taak moesten proefpersonen hardop series woordjes van oplopende moeilijkheidsgraad opzeggen: ofwel “de de de de”, ofwel de cijfers 1 t/m 6, ofwel per trial veranderende rijtjes van willekeurige cijfers, opgelezen door de onderzoeker.

De resultaten waren zoals verwacht: zonder het hardop zeggen van woordjes nam de tijd die nodig was om een ja/nee antwoord te geven met moeilijkheid van de uitspaken toe. Het herhalen van het woord “de” of de cijfers 1 t/m 6 vertraagde de antwoorden, maar niet de verhoudingsgewijze toename in tijd door oplopende moeilijkheid van de uitspraken. Bij de laatste, moeilijkste conditie, het herhalen van willekeurige cijfers, nam de RT relatief veel meer toe met moeilijkheidsgraad van de uitspraken. Dit komt omdat het herhalen van de cijfers de articulatoire cyclus zo belastte dat deze mentale energie van het executieve systeem “leende” waardoor de executieve taak veel langzamer werd uitgevoerd.

In een vergelijkbare taak waarin zinnen verwerkt moesten worden bleek daarnaast dat wanneer de woorden in de zinnen fonetisch erg op elkaar lijken, er meer interferentie plaatsvond met de articulatoire cyclus.

Logie (1990) en zijn collega’s onderzochten combinaties van visuele en auditieve primaire en secundaire taken, door baseline performance op de primaire taak te vergelijken met diezelfde taak in een duale-taak-situatie. Hij vond dat, bij een visuele primaire taak, een auditieve secundaire taak veel minder interferentie veroorzaakte dan een visuele secundaire taak. Bij een auditieve primaire taak zorgde een auditieve secundaire taak voor meer interferentie dan een visuele secundaire taak.

Werkgeheugen capaciteit

De capaciteit van het werkgeheugen verschilt per persoon en is afhankelijk van cognitieve processen. Het werkgeheugen omvat twee processen: processing en storage. In processing wordt betekenis toegekend aan bijvoorbeeld een gelezen zin, in storage worden woorden opgeslagen. Onderzoek toont aan dat het werkgeheugen sterk correleert aan taken waar gecontroleerde aandacht bij komt kijken. Volgens Enge (2002) is het werkgeheugen de combinatie van het korte termijn geheugen en gecontroleerde aandacht. Ook is er bewijs gevonden dat de capaciteit van het werkgeheugen door oefening kan verbeteren. Mensen kunnen door oefening strategieën ontwikkelen om hun werkgeheugen effectiever en efficiënter te benutten dan normaal (Chase & Ericsson, 1982).

De impact van werkgeheugen op cognitie

Werkgeheugen heeft een impact op veel processen in verschillende domeinen, zoals aandacht, lange termijngeheugen en redenering.

Werkgeheugen en aandacht

Het blijkt dat mensen met een grotere werkgeheugencapaciteit, hun naam niet zo snel zullen horen vallen op een feestje, dan mensen men een lagere capaciteit. Dit komt mogelijk doordat mensen met een hoge capaciteit hun aandacht meer op het eigen gesprek richten, dan die van de buurman. Mensen met een lagere capaciteit kunnen slechter inhiberen en richten ook hun aandacht op afleidende informatie.

Werkgeheugen en lange termijngeheugen

In een onderzoek van Rosen en Engle (1997) werden proefpersonen met een groot werkgeheugencapaciteit vergeleken met proefpersonen met een kleinere capaciteit. Men moest in 15 minuten zoveel mogelijk dieren opnoemen. Mensen met een grotere capaciteit waren hier beter in. Echter, toen er een tweede taak werd toegevoegd, namelijk het op een knop drukken na drie opvolgende oneven getallen op een scherm, nam de prestatie op de dierbenoemtaak bij mensen met een grote capaciteit af, bij mensen met een lage capaciteit niet. Bij de mensen met een grote capaciteit werd zo’n aandachtsgestuurd mechanisme in gang gezet, dat een taak met de cijfers een deel van het werkgeheugen overnam en dus lager liet presteren op de taak.

Werkgeheugen en redenering

Het kan zo zijn dat sommige mensen lager presteren op capaciteittests over het werkgeheugen omdat ze minder actief hun gedachteprocessen weten te beheren. Uit onderzoek is gebleken dat mensen met een grotere capaciteit meer problemen konden oplossen en ook een andere strategie gebruikten dan mensen met een lage werkgeheugencapaciteit. Kennelijk kun je met een grote capaciteit meer informatie actief in je geheugen houden, waardoor je meer keuzemogelijkheden hebt om een conclusie te trekken.

Waarom een kleine werkgeheugencapaciteit soms beter is

In een onderzoek werd een onderscheid gemaakt tussen grote en kleine werkgeheugencapaciteit. Aan beide groepen werd veel irrelevante stressvolle informatie verteld, zoals dat ze op video gevolgd werden, dat de tijd bijgehouden werd en dat experts de werkwijze van de proefpersonen zouden beoordelen. Mensen met een grote capaciteit konden zich tijdens het oplossen van de taak ook bezighouden met deze irrelevante informatie, waardoor ze uiteindelijk even goed presteerden als de proefpersonen met een lage capaciteit.

Tenslotte

Uit het voorgaande blijkt dat “werkgeheugen” een betere term is dan alleen “korte termijn geheugen”, omdat de eerste term meer recht doet aan de verschillende taken van dit geheugen: het integreren en verwerken van informatie uit de slave systemen en het lange termijn geheugen. Baddeley suggereerde later zelfs het bestaan van een derde slave systeem, verantwoordelijk voor de informatie-uitwisseling met het lange termijn geheugen.

Het werkgeheugen heeft een beperkte hoeveelheid mentale energie of aandacht tot zijn beschikking: wanneer één van de componenten veel gebruikt, dan beïnvloedt dit de prestatie van andere componenten.

Sommige mensen lijken meer resources te hebben dan andere, waardoor ze beter op gerichte aandacht-taken kunnen presteren. Wanneer processen automatischer worden hoeft er minder mentale energie en aandacht aan besteed te worden.

Back to top

Deel 6 Het episodisch lange termijn geheugen

Tegenwoordig is het niet meer de vraag óf het lange termijn geheugen uit meerdere delen bestaat, maar uit hoeveel delen het bestaat. De eerste onderscheiding die gemaakt wordt, is tussen het declaratieve en het nondeclaratieve geheugen.

Het nondeclaratieve of impliciete geheugen betreft onbewuste informatie die onze gedachten en gedrag onbewust kan beïnvloeden. Hierbinnen kan men vaardigheden en gewoontes, priming, simpele klassieke conditionering en niet-associatief leren onderscheiden.

Het declaratieve of expliciete geheugen betreft informatie waar we ons bewust van zijn. Het kan opgesplitst worden in het episodisch en het semantisch geheugen. Het episodisch geheugen bevat geïntegreerde mentale representaties en is het autobiografische geheugen, oftewel het geheugen voor persoonlijke ervaringen en gebeurtenissen in het leven (bijvoorbeeld hoe je moeder heet). Het semantisch geheugen bestaat uit algemene kennis over de wereld en hoe deze kennis vertaald wordt naar taal (bijvoorbeeld: wat is een moeder?). Het episodisch geheugen is een soort mentale autobiografie, het semantisch geheugen een soort encyclopedie.

Voorafgaande problemen

Een “mnemonic device”, zoals een ezelsbruggetje, is een strategie om dingen beter te onthouden. Er bestaan formele, algemene strategieën die gebaseerd zijn op bestaande herinneringen en veel oefening. Daarnaast heb je meer informele, persoonlijke strategieën. Algemene kenmerken zijn echter (1) het herhaald oefenen van het te onthouden materiaal, (2) het materiaal wordt geïntegreerd in een bestaand geheugensysteem en (3) de strategie maakt “retrieval” (terughalen van informatie) een stuk beter.

Voorbeelden van strategieën:

De loci (meervoud van locus, oftewel plaats) methode: Je kunt deze strategie gebruiken door een set plaatsen in je hoofd te nemen die je makkelijk in een bepaalde volgorde kunt onthouden, bijvoorbeeld die je op een bepaalde route (van huis naar school of van de keuken naar de badkamer) tegenkomt. Vervolgens link je ieder te onthouden item aan één van de locaties en maak je je er een heldere voorstelling van. Om de items te herinneren hoef je nu alleen maar mentaal de verschillende plekken langs te lopen en je ziet de bijbehorende items op die plek. Het schijnt te helpen om je item aan een niet voor de hand liggende plaats te linken, bijvoorbeeld een auto in de badkamer: een meer opvallend of discrepant beeld activeert je geheugen beter.

Een andere techniek is de “peg word” techniek, waarbij een set eerder in het geheugen opgeslagen woorden als “tussenwoorden” gebruikt worden. Door zinnetjes met op cijfers rijmende woorden (“één is een been”, “twee is een zee” etc) te onthouden en via een mentaal plaatje te verbinden aan de te onthouden woorden, worden deze beter onthouden. Bijvoorbeeld: het eerste woord dat je moet onthouden is pen. Je vormt een mentaal plaatje van een pen die iets op een been schrijft en wanneer je aan “één is een been” denkt, zie je door het mentale plaatje de pen.

Onderzoek wijst uit dat studenten die aan de hand van 40 locaties op hun campus woorden moesten onthouden, 38 uit de 40 goed hadden bij de immediate recall en 34 een dag later.

Drie principes van geheugenstrategieën:

1) Ze vormen een structuur aan de hand waarvan informatie geleerd kan worden.

2) Door middel van visualisaties, rijmwoorden of andere associaties en door deze te oefenen blijft er een duurzaam, duidelijk geheugenspoor achter dat niet snel vergeten wordt.

3) De strategieën helpen bij de retrieval omdat ze voor cues zorgen.

Alle geheugentaken bestaan uit drie delen: de codering van informatie, het bewaren van die informatie over tijd (retentie) en het terughalen van die informatie (“retrieval”). Al deze drie stappen moeten goed verlopen voor een goede geheugenfunctie.

Ebbinghaus

Het onderzoek van Ebbinghaus, dat hij meer dan 100 jaar geleden uitvoerde, was zijn tijd ver vooruit qua ideeën en methodologie. Zo liet hij al ruimte voor de invloed van onbewuste factoren. Hoewel hij vooral bekend is voor de introductie van de onzin-woordconstructies (medeklinker-klinker-medeklinker), reikt zijn invloed veel verder.

Ebbinghaus gebruikte onzinwoorden om te voorkomen dat zijn bestaande woordkennis de geheugentaken zou beïnvloeden. Zijn idee was dat leren uitgaat van nieuwe dingen, en dat dus gebruik van al bekende woorden de resultaten konden beïnvloeden.

Hij voerde de “relearning” taak uit (op zichzelf als proefpersoon), waarin een lijst woorden in een aantal trials uit het hoofd moest worden geleerd, een tijd opzij gelegd, en daarna nog een keer moet worden geleerd totdat hetzelfde niveau van nauwkeurigheid bereikt is (meestal het correct herhalen van alle woorden). Hij berekende zo de “savings score”: hoeveel minder trials er nodig waren om de complete lijst uit het hoofd te leren. Als het bijvoorbeeld de eerste keer 10 trials duurt voordat een lijst woorden is geleerd en daarna 7 trials, dan zijn er 3 trials minder gebruikt, vergeleken met de oorspronkelijke 10 dus een savings score van 30%.

Recentelijk werk door MacLeod suggereert dat het herleren vooral gunstige effecten heeft op de recall; informatie is wel opgeslagen maar moeilijk terug te halen.

Ebbinghaus savings scores namen af over tijd (oftewel: hoe langer het duurde tot de volgende “relearning”, hoe minder woorden Ebbinghaus nog wist en hoe meer trials hij nodig had om alle woorden weer te kennen), maar niet evenredig. Zo had hij na 20 minuten een savings score van 58%, na 1 uur 44%, na 9 uur 38% en na 2 dagen rond de 25%. Oftewel: er was een afname te zien in de snelheid waarmee hij woorden vergat.

Een aantal interessante effecten: wanneer een lijst langer geoefend wordt (bijvoorbeeld twee keer zoveel trials dan doorgaans voor een perfecte retentie nodig is), wordt hij beter onthouden. Voor een lange lijst zijn meer trials nodig om hem te onthouden maar wordt vervolgens op de lange termijn beter onthouden dan een korte lijst. Bij het elke dag leren van dezelfde set woorden gedurende een aantal dagen bleek uit extrapolatie van de trend dat er uiteindelijk een savings score van 100% zou worden gehaald, oftewel: de lijst zou helemaal niet vergeten worden.

Een punt van kritiek is dat het gebruik van onzinwoorden wel leidt tot een sterker experimenteel design, maar niet helemaal strookt met de realiteit. Mensen verzinnen ezelsbruggetjes om onzinwoorden te onthouden: het is dus ook noodzakelijk om dit fenomeen te onderzoeken, in plaats van het te voorkomen.

Metageheugen

Mensen zijn zich altijd bewust geweest van de werking en de tekortkomingen van hun eigen geheugen: het feit dat Ebbinghaus betekenisverlening tegen probeerde te gaan laat al zien dat hij zich bewust was van zijn natuurlijke neiging dit wel te doen. Dit heet metageheugen: kennis over de werking en tekortkomingen van je eigen geheugen hebben. Het is een aspect van metacognitie: de kennis over je eigen cognitieve functioneren.

Metageheugen uit zich bijvoorbeeld in self-monitoring: in de gaten houden hoe goed je het doet op een taak. Dit leidt dan tot zelfregulatie of –controle: hoe reageer je als je merkt dat je het goed of slecht doet op een taak? Je kunt dan van strategie veranderen.

Opslaan van informatie in het episodisch geheugen

Ebbinghaus’ geheugenexperimenten lieten zien dat herhaling een belangrijke factor is in het opslaan van informatie. Repeteren faciliteert het opslaan van informatie. Naast repeteren (rehearsal) worden nog twee opslag-effecten onderscheiden: organisatie en beeldvorming (imagery). Het combineren van deze drie effecten leidt tot een sterker geheugenspoor (trace).

Frequentie heeft ongetwijfeld een impact op het geheugen, maar ongebruikelijke en onverwachte gebeurtenissen zijn ook vrij makkelijk te onthouden. Dit effect wordt het isolation effect genoemd, ook wel het von Restorff effect genoemd. Dit effect houdt in dat voor een klein deeltje informatie die anders is dan de informatie er om heen, het geheugen verbetert. Dit kun je bijvoorbeeld ook zo zien als dikgedrukte letters in een tekst die opvallen.

Repeteren (rehearsal):

Repeteren is het bewust herhalen van informatie in het korte termijn geheugen. Hierdoor wordt de informatie als het ware gekopieerd naar het LTG; hoe goed dit gebeurt hangt af van het aantal repetities. Verschillende experimenten bevestigen dit, onder andere een aangepast Brown-Peterson taak waarbij de te onthouden woorden hardop een aantal keer herhaald moesten worden tijdens het maken van de tussentaak.

Rundus en zijn collega’s onderzochten het LTG door proefpersonen rijtjes woorden te laten leren. Tijdens het leren mochten ze hardop woorden naar keuze herhalen. Vervolgens onderzochten ze de relatie tussen de positie van het woord in de lijst, het aantal hardop repetities van het woord en de kans op een correcte recall na afloop van de taak. Voor de woorden aan het begin van de lijst bleek dat het aantal repetities positief samenhing met de kans op recall. Aan het einde van de lijst was dit niet het geval: het aantal repetities was laag (logischerwijze, want er was minder tijd over voordat de gehele lijst was voorgelezen) maar de kans op recall hoog. Dit laat zien dat recall van de woorden aan het begin van de lijst op repetitie berusten, terwijl de recall van woorden aan het eind van de lijst vanuit het korte termijn geheugen werden gereproduceerd.

Er bestaan twee soorten repeteren: type I, onderhouds repetitie (“maintenance rehearsal”) is een soort oppervlakkige informatie-recycling. Wanneer je stopt met repeteren, vergeet je de informatie. Type 2, uitgebreid repeteren (elaborative rehearsal) is complexer en gebruikt de betekenis van de informatie om het dieper en langduriger in het geheugen op te slaan.

Interessant is dat we aan de ene kant vaak zeker zijn van bepaalde dingen die we in ons geheugen hebben opgeslagen, terwijl ook vaak blijkt dat ons geheugen beperkingen en vervormingen kent.

Niveaus van verwerking

Craik en Lockhart (1972) kwamen met een alternatief voor het werkgeheugen/LTG model. Ze gingen uit van twee soorten repetitie die op een verschillend niveau voorkomen. Zo wordt sommige informatie slechts op een oppervlakkig, bijna alleen sensorisch niveau verwerkt, terwijl andere informatie op een dieper, bewuster en betekenisvoller niveau verwerkt wordt.

Een interessant experiment ondersteunt de theorie: proefpersonen luisterden naar een serie hardop voorgelezen woorden. Wanneer ze een woord met een G hoorden, moesten ze dit onthouden, totdat er een nieuw woord met een G kwam, wat ze dan weer moesten onthouden enz. Doordat de onderzoekers wisten hoeveel tijd er tussen de G-woorden zat, konden ze bijhouden hoelang een bepaald G-woord door de proefpersoon onthouden, dus gerepeteerd werd. Aan het eind werd onverwacht gevraagd om zoveel mogelijk van de G-woorden op te noemen. Het bleek dat de lengte van de repetitie geen invloed had op hoe goed het woord was onthouden. Dit suggereert dat het niet gaat om hoelang je iets repeteert, maar hoe bewust of diep je iets verwerkt tijdens het repeteren.

Deze theorie verloor echter snel terrein omdat ze berustte op een cirkelredenatie. Omdat niet herkend of beschreven kon worden welke soorten repetitie leidden tot diepere verwerking, werd als bewijs voor type II, oftewel diepere verwerking, een betere recall gebruikt. Het resultaat van en het bewijs voor diepere verwerking waren dus één en dezelfde variabele.

Ook waren er duidelijke taak-effecten: op verschillende geheugentaken werden verschillende resultaten gevonden. Zo is een bekend voorbeeld het verschil tussen recall en herkenningstaken. Van geleerde set items kan de recall (retrieval) slecht zijn, maar wanneer items slechts herkend moeten worden, is de score doorgaans veel beter (dit omdat er geen actieve retrieval hoeft plaats te vinden; de naar boven te halen informatie wordt gewoon aangeboden). Dit resultaat werd ook voor type 1 repetitie gevonden: ook deze oppervlakkige vorm van verwerking leidde tot goede herkenningsscores, wat aangeeft dat type I verwerking ook kan leiden tot opslag in het LTG.

Glenberg en zijn collega’s (1977) leverden nog meer bewijs tegen de verwerkingsniveau-theorie. In een Brown-Peterson taak lieten ze proefpersonen rijtjes cijfers zien die ze moesten onthouden, gevolgd door een in tijd variërende periode waarin een afleidende taak uitgevoerd werd: het hardop repeteren van woorden. Proefpersonen werden verteld dat ze de cijfers zo goed mogelijk moesten onthouden, waardoor ze dus weinig aandacht besteedden aan de woorden. Wanneer proefpersonen onverwacht werd gevraagd zoveel mogelijk woorden op te noemen, bleek de recall erg slecht, en niet beïnvloed door hoe lang de woorden herhaald waren. In een herkenningstaak bleken ze zich echter wel veel woorden te herinneren, en hierbij was lengte van repetitie wél van invloed op de recall. Dit gold voor zowel echte als onzinwoorden. Dus: niet alleen een dieper niveau van verwerking leidt tot betere opslag in het LTG, maar ook een langer (hoewel oppervlakkig) repeteren van informatie.

Ook is het zo dat als je meer doet met informatie, je het beter zult onthouden. Dit is nog groter te maken: als je informatie zelf creëert, kun je deze informatie beter onthouden dan informatie die je slechts gelezen of gehoord hebt, wat het generation effect genoemd wordt.

Een andere manier om informatie goed op te slaan, is een taak zelf uitvoeren. Hierbij zul je informatie beter onthouden dan als je iemand de taak ziet doen of over de taak leest, dit wordt het enactment effect genoemd.

Organisatie

Organisatie, het tweede opslag-effect, is het structureren en herstructureren van informatie wanneer het in het geheugen wordt opgeslagen. Organisatie is belangrijk omdat het het opslaan en terughalen van informatie nauwkeuriger maakt. Daarnaast wordt het achterliggende idee bevestigd dat mensen niet slechts passief leren maar actief deelnemen in het leren en opslaan van informatie.

Bousfield (1944) was een van de eersten die organisatie of clustering onderzochten. Hij ontdekte dat mensen bij free recall van woorden of bij taken als “noem zoveel mogelijk vogels” vaak subcategorieën aanhielden, zeker wanneer de te onthouden woorden in bepaalde categorieën konden worden ingedeeld. De woorden kunnen worden opgezegd in elke volgorde.

Dit impliceert dat mensen wanneer ze een lijst woorden horen, ze de woorden meteen beginnen te categoriseren, oftewel organiseren. Dit categoriseren vindt dus al plaats bij de opslag, en wordt duidelijk bij de recall, wanneer woorden in categorieën worden opgenoemd.

Mandler (1967) maakt zelfs een populair punt dat geheugen en organisatie niet alleen met elkaar te maken hebben, maar dat opslag in het geheugen zonder organisatie niet mogelijk is.

Bower en zijn collega’s (1969) demonstreerden de effectiviteit van clusteren door proefpersonen een lijst woorden aan te bieden die in de ene conditie ingedeeld waren in een hiërarchie van categorieën, en in de andere conditie door elkaar heen aangeboden werden (zie figuur 6.1). De resultaten lieten zien dat na 4 trials de mensen in de gecategoriseerde conditie alle woorden nog wisten, terwijl in de random-conditie men rond de 62% nog wist.

In andere onderzoeken werd gekeken naar de effecten van oefenen (rehearsal).Door mensen hardop te laten oefenen bij het onthouden van rijtjes woorden, bleek dat tijdens het oefenen al in categorieën gewerkt werd, en dat categorieën en items die meer geoefend waren, beter onthouden werden. Hoe meer tijd er tijdens de input beschikbaar is (doordat bijvoorbeeld woorden langzaam worden opgelezen), hoe meer kans een persoon heeft om informatie te organiseren.

Categoriseren bij het onthouden van woorden gebeurt niet alleen wanneer de woorden makkelijk in te delen zijn in duidelijke categorieën. Tulving (1962) bood proefpersonen een rij woorden herhaaldelijk aan, en zette ze in elke trial in een andere volgorde. Proefpersonen bleken toch subgroepen woorden te vormen die niet herleid konden woorden op een categorie (bijvoorbeeld: paard, schoen, huis, bakker), wellicht door zinnen te vormen met de woorden. Tulving noemde dit subjectieve organisatie: het op persoonlijke wijze organiseren van items zonder dat van tevoren door de onderzoeker categorieën zijn aangegeven.

Beeldvorming

Het derde opslag-effect, visuele beeldvorming, is het mentaal vormen van een visuele representatie van een stimulus om herkenning of recall te beïnvloeden. Naast eerder voorbeelden als mentale rotatie van objecten en het gebruiken van de loci-methode, zijn er de effecten van visualisatie op het lange termijn geheugen. Paivio (1971) maakte een overzicht van onderzoek naar dit fenomeen.

Een voorbeeld dat Paivio noemt is een “paired-associate learning” onderzoek. Paired-associate tests bestaan uit item paren, een stimulus-item en een respons-item, die tezamen moeten worden geleerd zodat wanneer het stimulus-item gepresenteerd wordt, het respons item gegeven kan worden. Bijvoorbeeld bij het woord-paar “konijn – schoen” wordt in de recall conditie het woord “konijn” gegeven en is het goede antwoord “schoen”. Schnorr en Atkinson (1969) varieerden hiermee door proefpersonen woordparen te laten leren en ze te instrueren bij de ene helft van de lijst zich een visueel beeld te vormen van de woordparen (bijvoorbeeld een konijn met grote schoenen aan) en bij de andere helft van de lijst alleen maar de woordparen te repeteren. Met de visuele methode werd een recall van 80% gehaald, versus 40% voor de repetitie-methode.

Dit maakte dat Paivio zijn “dual coding hypothesis” vormde: woorden die voor een tastbaar object staan kunnen op twee manier gecodeerd worden: door de verbale aspecten, dus het woord zelf, of door een visuele representatie van het object waar het woord voor staat.

Het lijkt erop dat de beste manier om opslag in het geheugen te begrijpen het bestuderen van retrieval is. Een voorbeeld is het opnoemen van de twaalf maanden van het jaar.

Wanneer je dit in chronologische volgorde moet doen kost dit geen moeite en zeer korte tijd. Wanneer je de maanden echter in alfabetische volgorde moet zetten duurt dit aanzienlijk langer. De organisatie van de maanden in het geheugen berust op chronologische volgorde; een andere manier van retrieval kost meer moeite.

Tulving en Thompson (1973) noemen dit “encoding specificity” oftewel specificiteit van codering. Opslag in het geheugen gebeurt aan de hand van een bredere representatie waarin bijvoorbeeld ook semantische en categoricale aspecten een rol spelen. Daarom kunnen bij recall verschillende “retrieval cues” (hints of geheugensteuntjes die recall bevorderen) effectief zijn. Wanneer je het woord “olifant” moet onthouden kunnen de cues “dier” of “groot” leiden tot een snellere recall.

Over het algemeen geldt dat wanneer de kenmerken (bijvoorbeeld modaliteit) van de opslag- en de test-conditie overeenkomen, dit leidt tot de beste recall. Een visuele recall-test is dus de beste manier om visueel geleerde informatie te checken.

Het herinneren (retrieval) van episodische informatie

Uitdoving: een voorbeeld van een eenvoudige, breed toepasbare theorie, namelijk dat het niet gebruiken of oefenen van herinneringen leidt tot het uitdoven, oftewel vergeten, van die herinnering. Helaas is uitdoving niet van toepassing op het LTG: het onthouden van informatie verslechtert niet doordat er tijd verloopt, maar door interfererende activiteit of input tijdens dat tijdverloop.

Interferentie

Een simpel voorbeeld/bewijs van interferentie was dat wanneer personen die iets geleerd hadden en het later moesten reproduceren, dit beter deden wanneer ze in de tussentijd geslapen hadden dan wanneer ze in de tussentijd allerlei dagelijkse activiteiten hadden uitgevoerd.

Als voorbeeld wordt gekeken naar een paired-associate learning taak. Een lijst met woordparen werd geleerd, zoals: kort – hoofd, idee – blad, appel – tijger. Wanneer vervolgens een compleet andere set woordparen werd geleerd die geen overeenkomsten of associatie had met de woorden uit de eerste lijst, zorgde dit voor weinig interferentie. Wanneer de tweede lijst echter uit dezelfde woorden bestond, maar op andere wijze gepaard (kort – blad, appel – hoofd), leidde dit wel tot interferentie. Wanneer vervolgens paren geleerd moesten worden met andere, maar semantisch overeenkomende, responswoorden (kort - nek, idee – papier, appel – leeuw), vond minder interferentie plaats. Dit zijn voorbeelden van proactieve interferentie: een eerdere taak heeft effect op het uitvoeren van de huidige taak.

Consolidatie is de permanente opslag van het geheugen in een neurale architectuur, het is moeilijk om ‘eroverheen’ te schrijven (interferentie).

Wanneer je proefpersonen na het leren van een tweede woordparen-lijst vraagt naar woordparen uit een eerdere lijst die geleerd is, is er sprake van retroactieve interferentie: een later geleerde taak heeft invloed op de prestatie op een eerder geleerde taak.

Dit paarsgewijs leren zou je kunnen beschrijven in termen van associaties: je leert een woord associeren met een ander woord, en wanneer je een nieuwe associatie moet leren in een nieuwe lijst vergeet je de oude associatie (door de interferentie). Een interessant gegeven is dat interferentie niet plaatsvindt bij eigen, natuurlijk associaties. Wanneer proefpersonen gevraagd werd bij een lijst stimulus-woorden hun eigen respons-woorden (gebaseerd op eigen, bestaande associaties) te bedenken, vergaten ze die niet wanneer er tussendoor andere, door de onderzoeker bedachte respons-woorden werden geleerd. Oftewel: de associaties die we in het dagelijks leven op natuurlijke wijze leren (zoals bijvoorbeeld taal en woorden) zijn nauwelijks gevoelig voor interferentie en zeker niet voor in een laboratorium bedachte interferentie-pogingen.

Problemen met retrieval

Vergeten werd vroeger gezien als het verdwijnen van herinneringen uit het LTG (bijvoorbeeld door decay). Tegenwoordig wordt vergeten gezien als een retrieval probleeem (tenzij er sprake is van fysieke schade of deterioratie van de hersenen). Wanneer er bijvoorbeeld iets op het puntje van je tong ligt, wéét je dat je bepaalde informatie in je LTG hebt opgeslagen maar kun je er op dat moment niet bijkomen (hoewel je vaak wel een idee hebt van de lengte, klank of beginletter van het woord dat je zoekt).

Over het algemeen blijft eenmaal opgeslagen informatie lange tijd, misschien wel voor altijd, beschikbaar in het geheugen, maar hangt het af van de toegankelijkheid van de informatie of we deze makkelijk naar boven kunnen halen. Informatie uit het geheugen raak je niet kwijt, maar de informatie kan wel kwijt raken in het geheugen.

Eerder zagen we al dat retrieval vergemakkelijkt wordt als de testsituatie overeenkomt met de leersituatie (encoding specificity) en er dus retrieval cues voorhanden zijn. Vandaar dat herkenningstaken een betere recall opleveren: de retrieval cues is de te onthouden informatie zelf!

Geheugenverlies en het impliciete geheugen

De aard van geheugenfalen en van welke geheugenfuncties intact blijven geven belangrijke informatie over de werking van het geheugen. Geheugenverlies (amnesie) is een verlies van geheugenfunctioneren, veroorzaakt door hersenbeschadiging of-ziekte. Geheugenverlies kan tijdelijk zijn (bijvoorbeeld na een harde klap op het hoofd) maar is meestal min of meer permanent door veranderingen in de hersenen.

Geheugenverlies wordt mede geclassificeerd aan de hand van het tijdstip waarop de hersenbeschadiging plaatsvindt. Retrograde amnesie betekent geheugenverlies van gebeurtenissen vóór de beschadiging. Anterograde amnesie betekent een verstoring van het geheugen van gebeurtenissen na de beschadiging. Vaak houdt dit in dat het vermogen om nieuwe informatie op te slaan in het LTG verstoord is.

Ook wordt gekeken naar de verschillende componenten van het geheugen en hoe die met elkaar in verband staan. Dit kan door te kijken naar dissociatie: in hoeverre beschadiging van een deel van het systeem leidt tot beschadiging of verminderd functioneren van een ander deel.

Wanneer twee processen gedissocieerd zijn, betekent dit dat beschadiging van het ene proces niet leidt tot beschadiging van het andere proces, of andersom. Wanneer je twee patiënten vindt waarvan in de ene proces A verstoord is en proces B niet, en waarvan in de andere proces B verstoord en proces A intact is, noemt men de processen A en B dubbel gedissocieerd. Dubbele dissociatie laat zien dat twee processen of vaardigheden onafhankelijk van elkaar zijn en in verschillende hersengebieden gelokaliseerd zijn. Bij een enkele dissociatie kun je niet altijd weten hoe het omgekeerde patroon er uit zal zien, tenzij je een patiënt hebt die dat patroon vertoont. Het kan zijn dat beschadiging van proces A geen invloed heeft op proces B, terwijl beschadiging van proces B altijd een verstoring van proces A oplevert. Het tegenovergestelde van dissociatie is associatie van twee processen, wanneer beschadiging van één van de twee altijd leidt tot verstoring van de ander.

De meest waardevolle informatie komt van gevallen waar sprake is van gelokaliseerde beschadiging, wanneer een specifiek klein gedeelte van de hersenen beschadigd is. In het geval van Alzheimer bijvoorbeeld is de schade zo wijdverspreid dat je de effecten van de locatie van de schade niet kunt analyseren.

Een voorbeeldcasus: patiënt K.C. liep ernstige, vooral frontale hersenschade op waardoor zijn autobiografisch geheugen is aangetast. Hij kan zich geen gebeurtenissen meer herinneren uit zijn eigen leven en slaat nieuwe gebeurtenissen ook niet op. Zijn semantisch geheugen is echter intact: wanneer je hem vraagt naar zijn broer’s begrafenis zegt hij dat het een treurige dag was. Hij herinnert zich niet eens dat hij een broer had, maar weet wel dat een begrafenis een verdrietige gebeurtenis is en beschrijft het dus adequaat. Dit patroon suggereert dissociatie van episodisch en semantisch geheugen.

Aangezien het niet verantwoord is om gegeneraliseerde uitspraken te doen op basis van één casus (de persoon was misschien al afwijkend of verstoord vóór de beschadiging), is er ook geheugenonderzoek gedaan door bloedtoevoer naar de hersenen in kaart te brengen. Door kleine hoeveelheden radioactief materiaal in het bloed te injecteren kunnen toenames en afnames in bloedtoevoer in verschillende hersengebieden door middel van scans in kaart gebracht worden. Hierbij bleek dat, wanneer een proefpersoon zich herinneringen van persoonlijke gebeurtenissen (episodisch) voor de geest haalde, dit samenhing met een vergrote activiteit in de frontale delen van de hersenen. Semantische herinneringen, zoals informatie over het zonnestelsel, hingen samen met meer posterieure gebieden in de hersenen.

Anterograde amnesie

In de jaren 50 werd aangenomen dat geheugenfuncties over de hele cortex verspreid zijn, en niet op één plek gelokaliseerd. De casus van patiënt H.M. sprak dit echter tegen. Bij H.M. waren operatief laesies aangebracht in het linker- en rechterdeel van de hippocampus, met als doel de ernstige epilepsie, waar H.M. aan leed, tegen te gaan. Het resultaat van de laesies was dat H.M. geen nieuwe herinneringen meer kon aanmaken, hoewel zijn episodisch en semantisch geheugen van eerdere herinneringen intact was en zijn IQ en woordenschat boven het gemiddelde lagen. Op taken waarbij hij echter informatie langere tijd moest onthouden of meer informatie moest onthouden dan wat een gemiddeld persoon met het KTG aankan, faalde hij. Ook in gesprekken viel hij steeds in herhaling omdat hij zich niet kon herinneren dat hij hetzelfde 5 minuten eerder al verteld had.

Het leren van nieuwe motorische taken, oftewel een aspect van het impliciete geheugen, ging hem echter goed af. Ook kon hij adequaat reageren op vragen en opdrachten, wat aangeeft dat zijn werkgeheugen functioneerde. Ook retrieval vanuit het LTG was intact: het coderen van nieuwe informatie naar het LTG was waar de beschadiging lag. Dit kan bijvoorbeeld te maken hebben met de central executive van het wetkgeheugen, of met problemen met de uitgebreide (elaborative) rehearsal.

In recent onderzoek is echter naar voren gekomen dat H.M. in de loop van de tijd naast de anterograde amnesie retrograde amnesie heeft gekregen op het gebied van weinig voorkomende woorden. De verklaring hiervoor is dat door de anterograde amnesie er geen nieuwe verbindingen in het geheugen zijn gemaakt met deze weinig voorkomende woorden. Bij mensen zonder amnesie worden deze verbindingen wel telkens versterkt en vernieuwt wanneer ze dat weinig voorkomende woord tegenkomen.

Bij anterograde amnesie patiënten is dit vermogen nieuwe verbindingen te maken verloren gegaan, waardoor op den duur het geheugen voor bestaande kennis (ook episodisch en semantische kennis) verloren gaat.

De beschadiging van de hippocampus betekent niet dat de hippocampus de plek is waar het LTG ligt. Het geheugen heeft te maken met neurale routes door verschillende hersengebieden; het beschadigen van een deel van hersenen kan de stroom van informatie naar het LTG beschadigen, terwijl de beschadigde plek niet per sé de plaats van opslag hoeft te zijn. De hippocampus maakt waarschijnlijk deel uit van een soort neuraal pad waarlangs informatie naar het LTG gesluisd wordt, en beschadigingen leiden daarom tot een aangetast LTG.

Geheugen: impliciet versus expliciet

Naast de bewuste vormen van geheugen, die een expliciet en traceerbaar effect op functioneren hebben, zijn er ook onbewuste, impliciete geheugenprocessen. “Repetition priming” bijvoorbeeld betekent dat het tegenkomen van een bepaalde stimulus maakt dat deze stimulus later (onbewust) sneller of gemakkelijker verwerkt wordt. Wanneer een woord een aantal keer voorkomt in een tekst, zul je het steeds makkelijker en sneller lezen omdat je het net al eerder hebt gezien, ook al ben je je hier niet van bewust.

Samengevat: bij expliciete geheugentaken is het van belang op welke manier (hoe diep verwerkt) informatie geleerd is, terwijl het impliciet geheugen gevoelig is voor priming effecten onafhankelijk van hoe de informatie geleerd is.

Vervolgonderzoek heeft deze resultaten genuanceerd en stelt dat de distinctie visueel-functioneel te simplistisch is om alle andere resultaten te beschrijven (zoals bijvoorbeeld de patiënt die woorden niet kon zeggen maar ze wel kon opschrijven, of de patiënt die alleen dieren niet meer kon identificeren).

De oplossing ligt wellicht in een model waarin verschillende modules bestaan. Deze theoretische benadering noemt men “modularity” en gaat uit van verschillende onafhankelijke modules in de hersenen die gespecialiseerd zijn in bepaalde processen, kenmerken, vaardigheden of stimuli. Zo zou er dan bijvoorbeeld een module kunnen zijn voor gesproken taal (meer gericht op fonologie) en een voor geschreven taal (meer gericht op ortho-grafische output).

Samengevat ligt de waarheid over de structuur van het geheugen waarschijnlijk in een combinatie van een connectionistisch model en een modularity-model, met een soepele interactie tussen de twee.

Hoofdstuk 5: Het korte termijn- of werkgeheugen

Figuur 5.1: Indruk van Baddeley’s indeling van het werkgeheugen. De twee subsystemen kosten, bij moeilijke taken, het uitvoerend systeem veel “mentale energie

Figuren

Figuur 6.1: Voorbeeld van een hiërarchie van categorieën. (zie bijlage )

Back to top

Deel 7 Semantisch lange termijn geheugen

Het semantisch geheugen, oftewel ons lange termijn geheugen voor algemene kennis, wordt ook wel vergeleken met een thesaurus, woordenboek of encyclopedie. In dit deel van het geheugen zijn woord- en taalkennis en informatie over de wereld om ons heen opgeslagen. In die zin is het semantisch geheugen ongeveer hetzelfde voor alle mensen: hoewel het autobiografisch geheugen voor ieder mens anders is, zijn er grote overeenkomsten in het semantisch geheugen. Behalve natuurlijk verschillen in taal, cultuur en educatie, is de structuur en het soort informatie in het semantisch geheugen voor iedereen vergelijkbaar.

Quillian (1966) was de eerste die de term “semantisch geheugen” bezigde. Geïnspireerd door kunstmatige intelligentie probeerde hij een computer te ontwikkelen die taal kon begrijpen, vragen kon beantwoorden en tekst kon parafraseren. Hij besefte dat hiervoor een enorme database aan informatie en kennis nodig is, en dit betekende dat mensen dus ook over zo’n database moeten beschikken: het semantisch geheugen.

In een experiment uit de jaren ‘70 werd aan proefpersonen een filmpje laten zien van twee auto’s die op elkaar botsen, en vervolgens werd hen gevraagd de snelheid waarmee de auto’s reden in te schatten. De ene groep kreeg echter de vraag ”hoe hard reden de auto’s toen ze op elkaar botsten”, de andere groep de vraag “…toen ze op elkaar knalden/elkaar ramden” of een dergelijke krachtterm. De proefpersonen in de laatste groep schatten, niet verwonderlijk, de snelheid hoger in door de suggestieve bewoording van de vraag. Dit zal veel mensen logisch in de oren klinken, maar wanneer we precies willen weten waarom dat zo logisch klinkt, komen we in het onderzoeksgebied van het semantisch geheugen: hoe worden de woorden “botsen” en “rammen” en hun betekenis opgeslagen? Hoe worden representaties gevormd en hoe beïnvloeden ze ons gedrag en onze cognities? Op basis van zijn computermodel TLC (Teachable Language Comprehender) vormde Quillian samen met zijn collega Collins een psychologisch model van het semantisch geheugen.

Het model van Quillian en Collins

Het model is geënt op twee aannames.

Ten eerste zagen Collins en Quillian de semantische concepten als nodes (punten of items) in een netwerk (een onderling gerelateerde set van concepten). Elke node staat met andere nodes in verbinding door “pathways”, oftewel associaties tussen concepten met een richting en een label. Alle nodes staan met elkaar in verbinding, hetzij via een directe pathway, hetzij via andere nodes en pathways.

Ten tweede noemden ze het proces dat in dit netwerk plaatsvindt “spreading activation”, oftewel de mentale activiteit van het bereiken en de retrieval van informatie in het netwerk. Normaal gezien zijn concepten in een baseline, een ongeactiveerde staat. Ze kunnen echter geactiveerd worden, bijvoorbeeld doordat je een woord leest of iets hoort of ziet. Deze activatie noemden Collins en Quillian de kern van retrieval: bij de betekenis van een concept komen. Wanneer een concept geactiveerd is, verspreidt deze activatie zich naar de concepten (nodes) waarmee het concept in verbinding staat.

Wanneer je bijvoorbeeld het woord “hond” leest, wordt dit concept geactiveerd en activeert het op zijn beurt andere concepten zoals “dier”, “blaffen”, “staart”, “bot” en “hondenhok”. De connecties tussen de concepten worden proposities genoemd: de relatie tussen de twee concepten. Dit kan zijn ”is lid van de categorie…” of een zogenaamde “property statement”: een concept is een aspect van een ander concept. Bijvoorbeeld een aspect van een hond is een staart (staart is een ”property” van een hond). Naast een dergelijk label heeft een pathway tussen twee concepten ook een richting. Zo is een hond altijd een dier, maar is een dier niet altijd een hond.

Deze verspreiding van activatie zorgt al gauw voor een steeds meer uitgebreide “poel” van concepten, die na verloop van tijd vele stappen verwijderd zijn van het concept dat in eerste instantie geactiveerd werd. Computerprogramma’s kunnen deze activatie-verspreiding bijhouden; als je dit met de hand zou doen merk je wat een uitgebreid proces dit is.

Het idee is dat, wanneer een aantal concepten geactiveerd worden (bijvoorbeeld door een vraag waarop je een antwoord zoekt), de uitspreidende “olievlekken” van concepten die door de eerste concepten geactiveerd worden elkaar op een gegeven moment ergens raken. Oftewel: er komt een punt dat twee activatie-kettingreacties allebei dezelfde node, hetzelfde concept activeren: een verbinding of kruispunt tussen twee concepten is gevormd. Dit noemt men een ´intersection’, 2 spreidingen van activatie bereiken elkaar.

Hoe “verder weg” een concept ligt van een in eerste instantie geactiveerd concept (dus: hoe meer tussenstappen), hoe zwakker de activatie wordt. De vele via-via gerelateerde, geactiveerde concepten blijven een tijdje geactiveerd (dit maakt bijvoorbeeld priming mogelijk), maar deze activatie dooft na een tijdje uit wanneer het concept of de connectie niet relevant blijkt en niet gebruikt wordt.

Het “feature comparison” model van Smith

Naast het Collins en Quillian model van het semantisch geheugen werden ook andere theorieën gevormd. De belangrijkste is die van Smith en zijn collega’s. Smith ging ervan uit dat de basis niet een netwerk van concepten is, maar dat het semantisch geheugen een verzameling van “feature lists” is. Elk concept bestaat uit een lijst van simpele semantische kenmerken:et concept “hond” bestaat bijvoorbeeld uit de kenmerken levend, tastbaar object, dier, heeft een vacht, blaft, kwispelt etc. De concepten met de meest definiërende kenmerken (“defining features”) staan bovenaan in de lijst. Onderaan de lijst staan minder definiërende kenmerken, die ook wel “characteristic features” worden genoemd: kenmerken die vaak van toepassing zijn maar niet essentieel voor de definitie van het concept. Een definiërend kenmerk van een hond is “dier”: een hond is altijd een dier. Een “characteristic feature” kan zijn “kwispelt”: een hond kwispelt soms, maar niet per definitie.

De retrieval van informatie in Smith’s model gebeurt aan de hand van vergelijking van kenmerken in de lijsten (feature comparison). Wanneer je bijvoorbeeld een vraag moet beantwoorden als “is een mus een vogel?” dan vergelijk je de kenmerken van het concept “vogel” met die van het concept “mus”. Als er voldoende overlap is tussen de lijsten met kenmerken dan is het antwoord “ja”. Dit vergelijken kan op twee niveaus plaatsvinden. In sommige gevallen zijn de kenmerk-lijsten zo overeenkomend (is een mus een vogel?) of zo verschillend (is een mus een auto?) dat meteen een antwoord gegeven kan worden zonder verdere verwerking. In sommige gevallen is het antwoord niet meteen duidelijk omdat sommige kenmerken overlappen en andere niet, zoals bij de vraag “is een vleermuis een vogel”. In dat geval vindt verwerking op een tweede niveau plaats en worden alleen de definiërende kenmerken vergeleken. In het geval vleermuis-vogel blijkt al gauw dat de definiërende kenmerken van vleermuis (zoogdier, heeft vacht en scherpe tanden) niet overeenkomen met die van vogel. Bij de vraag “is een kip een vogel” is ook enige twijfel mogelijk omdat niet alle kenmerken overlappen. De definiërende kenmerken van kip (heeft veren, legt eieren, heeft snavel) overlappen met die van vogel, dus ook al overlappen sommige characteristic features van het concept vogel niet (vliegt, bouwt een nest), er is toch een match. Bij dit tweede niveau van verwerking duurt het langer voordat een antwoord gegeven wordt.

Tests voor het semantisch geheugen

Het semantisch geheugen wordt meestal getest met behulp van een zin verificatie taak (sentence verification task), waarbij de proefpersoon ja/nee beslissingen moet maken over simpele zinnen of woorden. Proefpersonen moeten bijvoorbeeld zeggen of een lettercombinatie (veter, gulen) een echt woord is, of zinnen beoordelen, meestal in de vorm van “een S is (een) P”. Hierbij staat S voor subject (hond, paard) en P voor predicaat (dier, geel). Aangezien verwacht wordt dat de meeste mensen deze vragen zonder problemen goed kunnen beantwoorden, wordt reactietijd gebruikt als afhankelijke variabele.

Onafhankelijke variabelen kunnen zijn de lengte van de woorden, de semantische overlap tussen twee concepten in een “S is een P”-zin, en of een bepaald concept of woord vaker voorkomt in de taak.

Wanneer uitgegaan wordt van het model van Collins en Quillian, wordt logischerwijze voorspeld dat wanneer twee concepten dicht bij elkaar liggen (in het netwerk), het minder lang duurt ze te verifiëren. Er kunnen twee soorten uitspraken onderscheiden worden: een “superordinate” uitspraak (x is een y) en een “property statement” (kenmerk, x heeft y). Aan deze uitspraken kun je niveaus verbinden (0, 1, 2): hoeveel stappen ze verwijderd zijn in de hiërarchie van het semantische netwerk. Een voorbeeld van een S1 uitspraak is “een kanarie is een vogel”, S2 is dan “een kanarie is een dier”. Een voorbeeld van een P0 uitspraak is “een kanarie kan zingen” en P1: “een kanarie heeft veren” (er vanuit gaand dat “zingen” direct in verbinding staat met kanarie, en “veren” via het concept “vogel” in verbinding staat met kanarie). Uit onderzoek naar reactietijd in het verifiëren van deze verschillende niveaus van uitspraken bleek dat reactietijden korter waren voor S-uitspraken dan voor P-uitspraken, en dat met een toename in niveau (dus afstand in het semantisch netwerk) ook de reactietijd toenam.

De gevonden reactietijden kunnen echter ook verklaard worden aan de hand van Smith’s model: S2 stellingen (kanarie-dier) hebben dan minder overlap in kenmerken dan S1 stellingen (kanarie-vogel), waardoor verwerking op het tweede niveau en dus langere tijd nodig is om tot een antwoord te komen.

De strijd tussen de verschillende modellen

Inherent aan het model van Collins en Quillian was het idee van cognitieve efficiëntie (cognitive economy): om ruimte en energie te besparen worden zo min mogelijk concepten opgeslagen, alleen de onmisbare. Concepten zoals “heeft vleugels” en “ademt” worden alleen genoemd op het meest algemene niveau. Dus in plaats van het concept “vleugels” bij alle soorten vogels te zetten, wordt het alleen bij het overkoepelende concept “vogel” gezet. Naast “ruimtebesparing” (vergeet niet dat aan dit model een computermodel ten grondslag ligt) komt zo ook het hiërarchische karakter van het model naar voren. Hierbij komt het begrip “inheritance” kijken: het idee dat leden van een categorie de kenmerken van die overlappende categorie bezitten. Dus omdat je weet dat een mus bij de categorie vogels hoort, betekent dat automatisch dat een mus de kenmerken van een vogel (veren, snavel) heeft.

Conrad onderzocht dit fenomeen door proefpersonen kenmerken van objecten (gitaar, kip) te laten opschrijven en te turven hoe vaak een bepaald kenmerk werd genoemd. Wanneer deze kenmerken in zin-verificatie taken gebruikt werden, bleek dat niet de hiërarchische structuur van belang was, maar hoe vaak een kenmerk spontaan werd genoemd. Het idee dat concepten verder weg in de hiërarchische structuur staat hoeft dus niet de reden te zijn dat er langer over verificatie wordt gedaan; het kan ook zijn dat bepaalde kenmerken meer dan andere geassocieerd zijn met bepaalde concepten.

Het model van Smith kwam in de problemen met de “property statements”(kenmerken). Het zou betekenen dat voor elk kenmerk er een lijst moest zijn met dingen die aan dat kenmerk voldeden (bijvoorbeeld een lijst met gele dingen, of dingen met vleugels). En deze lijsten zouden dan, om het twee-niveaus beslissingsproces toe te passen, ook weer definiërende en “characteristic” kenmerken moeten hebben. Wat is een definiërend kenmerk in de lijst “dingen met vleugels”? Belangrijker: waarom zou je aparte lijsten met objecten met een bepaald kenmerk hebben als kenmerken ook gewoon in de lijstjes van objecten staan (bijvoorbeeld “vleugels” staat al in de lijst bij “mus”, dus op basis daarvan kun je de verificatie al maken). Om property statements een plek te geven moesten allerlei onlogische aanpassingen aan het model gemaakt worden, waardoor de geloofwaardigheid afnam.

Ondanks deze tekortkoming introduceerde het model van Smith wel een belangrijk idee dat nog steeds gebruikt wordt, namelijk het idee van “typicality” (typisch-heid), oftewel in hoeverre items beschouwd worden als typisch lid van een categorie. Niet alle leden passen even goed in de categorie waar ze bij horen, en daarom duurt het langer om ze als zodanig te identificeren. Wanneer je mensen vraagt leden van de categorie “vogels” te noemen, zullen ze eerder een roodborstje (typisch) dan een kip (atypisch) noemen, bleek uit onderzoek. Typische leden worden sneller geïdentificeerd dan atypische leden, bleek uit onderzoek van Rosch en Smith (begin jaren ‘70) en dit noemt men het “typicality effect”. Dit effect past in beide modellen: in Smith’s model is het te verklaren aan de hand van overlap van kenmerken, die groter is voor typische dan voor atypische leden van een categorie. In het model van Collins en Quillian lijkt het erop dat de pathways naar atypische leden van een categorie langer zijn en dat dit de oorzaak is van een langere reactietijd.

Semantische verwantschap

Naar aanleiding van het bovenstaande kan het netwerk op drie punten worden aangepast. Ten eerste is er geen sprake van efficiëntie: kenmerken zijn op verschillende niveaus direct gelinkt aan concepten, ook al is dit eigenlijk overbodig omdat lidmaatschap van een categorie impliceert dat aan bepaalde kenmerken wordt voldaan. Ten tweede kunnen pathways tussen kernmerken en concepten verschillende lengtes hebben: kenmerken met een korte pathway worden sneller/vaker genoemd dan die met een lange pathway. Tenslotte is er plaats voor de effecten van typicality: typische leden van een categorie hebben kortere pathways met de categorie dan atypische leden.

Met andere woorden: concepten of kenmerken waartussen een kortere pathway bestaat, liggen semantisch gezien dichter bij elkaar. Ook wordt niet een strict logische hiërarchie aangehouden. Het verifiëren van “een hond is een zoogdier” zal langer duren dan “een hond is een dier”, hoewel strict genomen “dier” hoger (dus verder weg) in de hiërarchie staat dan zoogdier. De kortere reactietijd kan dan verklaard worden door het feit dat het concept “hond” ook een directe, korte verbinding met het concept “dier” heeft, naast de verbinding die via het minder typische concept zoogdier loopt.

Het idee is dat de connectie tussen en verificatie van concepten die een hogere semantische verwantschap (dus een kortere pathway) hebben, sneller verloopt. Dit noemt men het “semantic relatedness effect”. Dit geld zowel voor subordinate als voor property statements.

Het semantische verwantschap-effect wordt ondersteund door fysiologische gegevens. Kounios en Holcomb boden proefpersonen woordparen aan van categorie en categorie-lid (“exemplar”), waarover waar/niet waar uitspraken gedaan moesten worden. Zowel de mate van verwantschap (robijn-edelsteen of spar-edelsteen) als de volgorde (examplar-categorie of categorie-exemplar) kon variëren. Daarnaast werden in de zinnen afwisselend de woorden “alle, sommige, geen” gebruikt (alle robijnen zijn edelstenen, sommige edelstenen zijn robijnen (waar) of robijnen zijn geen edelstenen (niet waar)). In plaats van reactietijd werden event-related potentials (ERP’s, zie hoofdstuk 2) gebruikt. Deze kunnen benoemd worden aan de hand van tijd die tussen stimulus en ERP zit, en of ze positief of negatief zijn. Een P300 ERP bijvoorbeeld is een positieve verandering in elektrisch potentiaal die 300 ms na de stimulus plaatsvindt en die geassocieerd wordt met activiteit in het werkgeheugen.

Perceptual symbols: het semantische geheugen is opgebouwd uit sensorische en motorische elementen verkregen door ervaring. In het huidige experiment naar semantische verwantschap bleek de N400 (negatieve verandering na 400 ms) belangrijk (zie figuren op p 241 van Cognition (2010), Ashcraft). Over het algemeen zorgde een kleinere semantische verwantschap voor een lagere N400 amplitude, en wanneer de categorie eerst genoemd werd en daarna de exemplar zorgde dit voor een hogere N400 amplitude dan wanneer de exemplar eerst genoemd werd.

Wanneer we meer in detail kijken, blijkt dat voor sterk verwante exemplar-categorie statements (“alle robijnen zijn edelstenen”) er nauwelijks een piek te zien is in elektrisch potentiaal, terwijl voor de andere drie soorten statements er een duidelijke piek te zien was, vooral bij een lage mate van semantische verwantschap. Oftewel, de N400 ERP component is vooral gevoelig voor een lage semantische verwantschap tussen concepten. De onderzoekers concludeerden dat de N400 ERP te maken heeft met retrieval mechanismes in het semantisch geheugen en met coherentie en integratie in taalbegrip.

Denk even terug aan Paivio (hoofdstuk 6), die stelde dat woorden verbaal of via beeldvorming verwerkt kunnen worden. Een resultaat daarvan zou zijn dat woorden die concrete objecten beschrijven zowel verbaal als visueel verwerkt kunnen worden, terwijl abstracte woorden alleen verbaal verwerkt kunnen worden. In het eerste geval zou verwerking in beide hemisferen plaatsvinden, in het tweede geval vooral in de linker (taal) hemisfeer.

Kounios en Holcomb testten dit idee met ERP onderzoek, door woordparen te gebruiken met abstracte en concrete woorden. Ze vonden inderdaad dat ERP voor concrete woorden in beide hemisferen ongeveer gelijk waren (en hoger dan die van abstracte woorden), terwijl voor abstracte woorden de ERP in de linkerhemisfeer hoger was dan in de rechter.

Kounios stelde tenslotte dat reactietijd effecten in het semantisch geheugen niet zozeer te maken hadden met retrieval, maar met beslissingsprocessen. Dit dient nog verder onderzocht te worden.

Priming binnen het semantisch geheugen

Zoals we eerder hebben kunnen lezen berust het idee van uitbreidende activatie op vier principes: activatie verspreid zich, dit kost tijd, activatie wordt diffuser naarmate de verspreiding verder van de originele bron af gaat, en activatie dooft uit na verloop van tijd. Deze principes in relatie tot semantische verwantschap vormden een interessant onderzoeksgebied: hoe beïnvloedt semantische verwantschap het gemak en de snelheid van verspreiding van activatie? De verspreiding van activatie wordt ook priming genoemd, en dit is een van de belangrijkste processen in retrieval van informatie. Priming activeert concepten en ideeën die overkoepelend in verbinding staan met diverse andere concepten. Wat terminologie: een prime is een stimulus die als eerste wordt gepresenteerd om te zien of het erop volgende processen beïnvloedt. (Prime is ook een werkwoord: one stimulus primes other information). De target is de stimulus die op de prime volgt, en die verwacht wordt erdoor beïnvloed (geprimed) te zijn. Wanneer een target sneller of makkelijke verwerkt kan worden doordat de prime eraan voorafging, noemen we deze positieve invloed (meestal kortere RT) facilitatie of “benefits”. Wanneer de prime verwerking van de target vertraagd of verhindert, heet dit inhibitie of “costs”. De tijd tussen het aanbieden van de prime en de target, meestal gedefinieerd als het aantal tussenliggende stimuli of trials, heet lag (vertraging). Wanneer er geen tussenliggende stimuli zijn maar wel enige tijd tussen de prime en de target, noemt men deze tijdsspanne stimulus onset asynchrony (SOA).

Loftus en zijn collega’s onderzochten priming op verschillende manieren. In een experiment kregen proefpersonen opdracht om een woord te noemen uit een bepaalde categorie en met een bepaald kenmerk, bijvoorbeeld “een rode bloem” of “een groente met een S”. In sommige trials werd het kenmerk (rood, letter S) als prime gegeven, in andere de categorie. De categorie bleek een effectieve prime: activatie van een categorie verspreidde zich naar de leden van die categorie, waardoor ze makkelijker toegankelijk waren en er eerder een goed antwoord gegeven kon worden. Kenmerken zoals kleur of beginletter bleken geen effectieve prime: nog een bewijs dat er geen categorieën bestaan gebaseerd op dergelijke kenmerken.

In een variatie op dit experiment werd gekeken naar priming across trials. Na de eerste aanbieding van prime (categorie) en target (kenmerk) volgde er nog een trial met dezelfde categorie. Deze trial volgde direct op de eerste trial, of er zat een lag van twee trials tussen. Resultaten lieten zien dat de eerste trial als prime werkte voor de tweede trial: er werd sneller een item genoemd dat aan categorie en kenmerk voldeed. Bij een lag van twee trials was de RT minder snel dan bij geen lag, maar nog steeds sneller dan bij de eerste trial.

Als tweede factor werd de tijd tussen prime en target gevarieerd: in de ene conditie volgden deze meteen op elkaar, bij een andere conditie werd een SOA (tijd tussen prime en target) van 2,5 seconde aangehouden (ook hier werd priming across trials bekeken, met een lag 0 en 2). De resultaten lieten hetzelfde patroon zien als wanneer prime en target meteen na elkaar werden aangeboden, alleen waren alle RT’s korter. Een SOA van 2,5 seconde maakt dat er meer tijd is voor spreiding van activatie, dus een grotere toegankelijkheid voor meer leden van een categorie en daardoor een snellere reactietijd (zie figuuur 7.1).

Dit soort priming is ook gevonden bij zin-verificatie taken. Een zin als “een labrador blaft” faclilteert een zin uit dezelfde categorie, bijvoorbeeld “een tekkel kan kwispelen”, maar alleen als de target zin een belangrijk kenmerk bevat. Ook wanneer proefpersonen van twee woorden moeten aangeven of ze tot dezelfde categorie behoren, doen ze dit aanzienlijk sneller wanneer als prime de categorie wordt gegeven (in vergelijking met als prime het woord “blanco”). De priming werkt sterker als de woorden typische leden van de categorie zijn.

Priming in lexical decision taken

In een lexical decision taak (aangeven of een set letters een bestaand woord is of niet) werden ook dramatische priming effecten gevonden. Proefpersonen kregen twee sets letters tegelijk te zien en moesten alleen ja zeggen als allebei de sets bestaande woorden waren. Twee woorden die semantisch verwant waren (brood, boter) werden sneller als woorden herkend dan twee niet-gerelateerde woorden (koek, auto). Dit is interessant, aangezien voor deze taak de betekenis van een woord niet van belang is, alleen of het woord wel of niet in het lexicon (mentale woordenboek) voorkomt.

De priming gebeurt automatisch: zonder intentie wordt de betekenis van een woord verwerkt. Een voorbeeld is een taak waarin proefpersonen woordparen te zien kregen die wel of niet samenhingen, of waarvan de neutrale letter X met een woord was gepaard. Men moest aangeven of de tweede set letter wel of niet een bestaand woord was. Wanneer het eerste woord gerelateerd was aan het tweede woord, bleek dit een goede prime; een ongerelateerd woord bleek zelfs inhiberend te werken. Daarnaast bleek de lengte van de SOA tussen prime en target grote invloed te hebben op reactietijd: hoe langer de SOA, hoe korter de RT voor het identificeren van het woord.

De vraag is nu of de semantische priming die optreedt bij het vooraf geven van een categorie onbewust is of dat het ook te maken heeft met bewuste processen. Neely (1977) onderzocht deze vraag door proefpersonen in een lexical decision taak steeds een gerelateerd, ongerelateerd of een neutraal woord (baseline) als prime te geven. Over het algemeen vond hij dat een gerelateerde prime faciliterend werkte en een ongerelateerde prime inhiberend, in vergelijking met de baseline, zowel bij korte als bij lange SOA’s. Wel vond hij dat langere SOA’s met meer facilitatie of inhibitie samenhingen: proefpersonen hadden tijd om zich bewust op een bepaalde semantische categorie voor te bereiden (naast de automatische acitvering).

De volgende stap in het experiment was ingenieus: Neely vertelde proefpersonen dat ze na een prime uit een bepaalde categorie een woord uit een andere categorie konden verwachten (bijvoorbeeld lichaam – deur of gebouw – arm). Hij vond dat priming op deze manier alleen bij lange SOA’s een faciliterende werking had, dus wanneer de proefpersoon tijd had om zich bewust op de andere categorie te concentreren. Bij korte SOA’s was de RT ongeveer hetzelfde als baseline. Wanneer echter in deze conditie de prime stiekem tóch gevolgd werd door een woord uit dezelfde categorie (lichaam – arm), dan bleek er bij korte SOA’s een faciliterend effect te zijn van de prime: de automatische activatie werkte gewoon als prime. Bij langere SOA’s werkte de prime echter inhiberend: de proefpersoon switcht dan bewust naar de andere categorie, en dit werkt inhiberend wanneer er dan een woord verschijnt uit een andere categorie dan verwacht op basis van de instructies.

Priming is automatisch, maar kun je ook de betekenis van een woord verwerken zonder dat je je er bewust van bent het woord überhaupt te hebben gezien? Marcel (1980) onderzocht deze vraag door mensen heel kort een prime woord te laten zien, bijna onmiddellijk gevolgd door een druk visueel patroon waardoor proefpersonen zich niet herinnerden een woord te hebben gezien. De woorden bleken echter wel als prime te werken in een lexical decision task (bijvoorbeeld wanneer onbewust het woord “dier” was waargenomen werden woorden als “hond” of “paard” sneller geïdentificeerd. Dit wordt ook wel impliciete priming genoemd, oftewel priming zonder dat er enig bewustzijn aan te pas komt.

Samengevat bestaat er zowel een impliciete als een expliciete vorm van priming. De impliciete vorm gebeurt automatisch, snel en vaak onbewust. Bij de expliciete vorm komen bewuste mentale (geheugen) processen kijken, die langer duren en dus bijvoorbeeld bij langere SOA’s gevonden worden. Over het algemeen ligt priming echter voornamelijk in impliciete processen: er worden zelfs effecten van impliciete priming gevonden wanneer het expliciete geheugen beschadigd is (zoals bij amnesie).

Schemata en scripts

Er wordt nu op een specifieke en gecompliceerde manier naar kennisgebruik gekeken.

Bartlett deed onderzoek naar het menselijk geheugen door middel van betekenisvol materiaal, zoals verhalen of afbeeldingen. De proefpersoon moet dan een aantal keer een verteld verhaal navertellen, waardoor de progressieve verandering in het geheugen duidelijk wordt. De proefpersoon vertelt het verhaal niet letterlijk na maar probeert wel de betekenis aan te houden, ‘an effort after meaning’. Dit wordt reconstructive memory genoemd, waarbij een verhaal samengesteld wordt van elementen van het oorspronkelijke verhaal met de aanwezige kennis.

De grote lijn van het verhaal werd vaak naverteld maar details of kleine gebeurtenissen werden weggelaten. Misschien nog wel interessanter, is het feit dat mensen ook feiten verdraaien of zelfs toevoegen. Dit wordt vaak gedaan om het verhaal sprekender te maken.

Schemata

Bartlett wilde met een schema de bron van deze aanpassingen verklaren. Een schema was in zijn ogen een actieve organisatie van gebeurde reacties of ervaringen. Dit wordt vergeleken met algemene wereldkennis of een raamwerk van kennis over een onderwerp. Als iemand een nieuw verhaal hoort, zal hij dit matchen met bestaande kennis. Als het verhaal niet op een bestaand schema aansluit, wordt het verhaal zo verdraaid dat het wel binnen een schema past. Een schema kan dan dominant zijn over de feiten van het verhaal.

Ditzelfde geldt bijvoorbeeld voor de vraag: ‘Als een haan op de kerktoren een ei legt, aan welke kant rolt het ei er dan af?’ Hier zorgt de kracht van het schema ervoor dat je (over het algemeen) niet direct door hebt dat hanen geen eieren kunnen leggen.

Sulin en Dooling (1974) deden een onderzoek naar hetzelfde verhaal, waarin bij de ene onderzoeksgroep de hoofdrolspeler Gerald Martin heette en bij de andere onderzoeksgroep Adolf Hitler. Na het verhaal moest men per zin aangeven of die in het verhaal zat of niet. Mensen uit de tweede onderzoeksgroep gaven bij meer zinnen aan die gezien te hebben, waarschijnlijk omdat die matchte met hun bestaande kennis (zoals ‘Hitler wilde de wereld overnemen’ die niet uit het verhaal kwam).

Scripts

Een script is een schema dat de volgorde van gebeurtenissen aanhoudt. Deze structuren zijn gedetaileerde semantisch geheugenconcepten. Een mentaal script is een kennisstructuur over normale gebeurtenissen en situaties. Je kunt het vergelijken met verwachtingen, je weet wat je te wachten staat als je een restaurant bezoekt.

De functie van een script is dat het een soort handleiding biedt voor de gehele gebeurtenis (niet stukje voor stukje). Het biedt dus een raamwerk waarin nieuwe ervaringen begrepen kunnen worden.

Een voorbeeld: “John had honger toen hij het restaurant binnen ging. Hij ging zitten en zag de ober. Plotseling realiseerde hij zich dat hij zijn leesbril niet bij zich had.”

Bijna alle lezers zullen nu bedenken dat John dan de menukaart niet kan lezen, ook al staat dat niet in het verhaaltje. Dit maakt niet uit want de hele set aan frames, details over specifieke gebeurtenissen in het script, is geactiveerd. Als ‘menukaart’ niet wordt genoemd, zal hij wel door een frame binnen een script worden ingevuld. Menukaart is dan een default value voor het frame, het concept waar het frame over gaat.

Concepten en categorisering

Hier wordt gekeken naar hoe het semantisch geheugen abstracte informatie opslaat en categorieën en concepten creëert die dagelijks gebruikt worden.

Je interacteert dagelijks met je omgeving en soms zullen bepaalde dingen nieuw voor je zijn, bijvoorbeeld als je voor het eerst een eekhoorn ziet. Je gebruikt dan je categorische kennis om in te schatten hoe de eekhoorn zich gedraagt. Bij het gebruiken van categorieën ga je ervan uit dat alle eekhoorns min of meer hetzelfde zijn. Dit scheelt tijd en moeite. Deze categorisering kan soms nadelen hebben, bijvoorbeeld door het gebruik van stereotypes.

Er zijn drie klasses van theorieën over categorisering. Dit is de klassieke manier, probabilistische theorieën en uitleg-gebaseerde theorieën.

Klassieke categorisering

De klassieke manier van categorisering neemt aan dat mensen categorieën creëren en gebruiken op basis van regels. Als iemand aan bepaalde regels voldoet, is het een lid van een bepaalde soort of gemeenschap. Hierbij wordt onderscheid gemaakt tussen ‘necessary’ en ‘sufficient’ eigenschappen. Bijvoorbeeld dat een vrijgezel een ongetrouwde volwassen persoon is. Deze eigenschap is necessary, want anders is iemand niet vrijgezel te noemen. Deze eigenschap is sufficent omdat er verder niks nodig is om iemand vrijgezel te noemen. Door deze klassieke manier kunnen we de mensen en dieren om ons heen indelen in categorieën.

Sommige dingen variëren in hoe erg ze bij een categorie passen, dit wordt ‘graded membership’ genoemd, zoals of een vleermuis bij zoogdieren of vogelsoorten hoort.

Categorieën hebben een soort central tendency, waarbij een soort kern is van de categorie waarin de dingen zitten, die het best binnen de categorie passen. Zo bleek uit onderzoek dat mensen het getal 4 meer ‘even’ vonden dan het getal 28, terwijl ze allebei even zijn. Dit hangt samen met het idee van typicality effecten, de mate waarin items gezien worden als typische, centrale leden van de categorie. Dit hangt af van het aantal eigenschappen dat het item deelt met andere leden van de categorie. Ze delen wel allemaal een family resemblance. Ze komen sowieso allemaal voor een deel overeen. Sommige eigenschappen komen ook heel vaak gecombineerd voor, zoals dat dingen met vleugels vaak ook snavels hebben: correlated attributes.

Probabilistische theorieën

Volgens deze theorieën worden categorieën in het semantisch geheugen gecreëerd rekening houdend met verschillende mogelijkheden en verwachtingen binnen iemands ervaring. Hierbij kun je bijvoorbeeld een prototype gebruiken. Ook wordt soms een exemplar theory gebruikt, dat een categorie gevormd wordt door elke ervaring of voorbeeld die men heeft met het item.

Uitleggebaseerde theorieën

In voorgaande theorieën zit een cirkelredenatie, want hoe weet het geheugen welke ervaringen samengenomen moeten worden om een categorie te vormen, zonder dat die categorie vooraf duidelijk is? Ook bestaan er ad hoc categorieën, die op specifieke situaties worden gecreëerd (wat je bijvoorbeeld uit een brandend gebouw mee zou nemen). Deze categorieën worden gecreëerd om uit te leggen waarom dingen zijn zoals ze zijn: explanation-based theories.

Met leden van een categorie wordt omgegaan alsof ze dezelfde onderliggende eigenschap hebben: psychological essentialism.

Connectionisme en de hersenen

Connectionisme wordt wel eens gebruikt in plaats van een semantisch netwerk. Connectionistische modellen bevatten een enorm netwerk van verbonden ‘nodes’. Hier vallen bijvoorbeeld een stoel, bank of tafel onder meubels, maar hebben deze items (stoel, bank en tafel) onderling ook een verband. Hierdoor wordt een netwerk van kennis gecreëerd. Voordelen van deze modellen zijn: qua structuur lijken ze meer op de structuur van de neuronen in de hersenen, ten tweede lijken de afzonderlijke delen ook meer op de delen van de hersenen, ten derde is het positieve of negatieve verband uit het model vergelijkbaar met het inhibitoire of excitatoire karakter van neuronen en als laatste is de activiteit binnen het model parallel, net als in de hersenen.

Een stoornis in het semantisch geheugen wordt een category-specific deficit genoemd. Hierbij wordt de toegang tot een deel van de informatie verstoord. Zo bleek uit onderzoek van Warrington en McCarthy (1983) dat er patiënten bestaan die moeilijkheden hebben met het identificeren van levende dingen, maar niet met niet-levende dingen. Dit kan bijvoorbeeld komen doordat de sensorische informatie (zoals kleur, geluid en beeld) wel wordt vergeten maar niet de functies van dingen (wat dan vaak over niet-levende dingen gaat). Modularity is een perspectief waarin verschillende mogelijkheden, karakteristieken, cognitieve processen, enzovoort in verschillende componenten in het geheugen worden opgeslagen. Hierdoor zou je dus wel functionele eigenschappen kunnen herkennen, maar niet sensorische eigenschappen.

Er zijn meerdere hersenstoornissen die het semantische systeem aantasten en specifiek een deel van het systeem wat lexicaal geheugen genoemd wordt. Hier wordt onze woordenkennis in opgeslagen. Je kunt bijvoorbeeld een stoornis hebben in het vinden van woorden, wat anomia genoemd wordt. Dit is vergelijkbaar met de tip-of-the-tongue (TOT) staat, de woorden liggen dan op het puntje van je tong. Echter, mensen in een TOT-staat hebben wel kennis over het woord, zoals het aantal letters, maar anomische patiënten hebben deze informatie niet. Ze kunnen concepten noemen die met het woord in verbinding staat (een anomische patiënt kan het hebben over regering of John Kennedy).

Back to top

Deel 9 Taal

Het gebruik van taal is een van de meest universele aspecten van de menselijke samenleving; taal is in alle facetten van ons leven cruciaal. De interesse vanuit de psychologie voor de linguïstiek kreeg een flinke boost toen Chomsky (zie hoofdstuk 1) de behavioristische benadering van taal afwees en een meer cognitieve weg werd ingeslagen. Een beperking van de linguïstiek bleek echter dat ze zich vooral richtte op taal in formele zin, terwijl psychologen juist geïnteresseerd zijn in hoe en waarom mensen taal gebruiken. De psycholinguïstiek ontstond: een tak van de cognitieve psychologie die zich richt op hoe mensen taal gebruiken en leren. In de komende hoofdstukken komen twee aspecten van de psycholinguïstiek aan bod: taalbegrip en taalproductie. Een derde belangrijk aspect, taalverwerving, is te uitgebreid om hier te behandelen.

Linguïstische begrippen

Een woordenboek definieert taal doorgaans als communicatie van gedachten en gevoelens op basis van geluiden, waaraan een bepaalde betekenis wordt toegedicht: menselijke spraak. Een belangrijk idee is het feit dat aan bepaalde klanken een betekenis wordt toegekend: een klank of woord staat voor een bepaalde betekenis. Een limitatie is echter dat taal niet per sé gesproken hoeft te zijn: denk aan geschreven taal of gebarentaal. Een betere definitie is daarom dat taal een gedeeld symbolisch systeem voor communicatie is. Het is symbolisch: een klank of combinatie van klanken representeert een betekenis. De betekenis van de symbolen is hetzelfde voor alle leden van de taalcultuur, en het systeem maakt communicatie mogelijk.

Hockett (1960’s) stelde een lijst van 13 linguïstische universelen samen: kenmerken die in alle talen voorkomen. Alleen menselijke taal bevat alle 13 kenmerken.

1) Vocaal-auditief kanaal. Alle menselijke communicatie gaat via het vocaal-auditief kanaal. (Geschreven taal is pas recentelijk uitgevonden en wordt bovendien niet in alle menselijke taalculturen gebruikt.)

2) “Broadcast” en richtingsgevoelige ontvangst. Linguistische boodschappen worden vanuit de bron naar alle richtingen “uitgezonden”, en wie dichtbij genoeg staat kan de boodschap ontvangen. Omdat we twee oren hebben kan de ontvangen de richting van waaruit de boodschap komt bepalen.

3) Vergankelijkheid. De boodschap is alleen op het moment dat hij geuit wordt beschikbaar en dooft daarna uit (in tegenstelling tot bijvoorbeeld een antwoordapparaat). De ontvanger moet de boodschap opslaan, in het geheugen of op papier.

4) Uitwisselbaarheid. Mensen kunnen iedere boodschap die ze ontvangen en begrijpen, ook zelf produceren; ze kunnen als verzender en als ontvanger fungeren. Dit in tegenstelling tot bijvoorbeeld diersoorten waarbij mannetjes en vrouwtjes ieder een eigen set uitingen hebben.

5) Totale feedback. De sprekende mens heeft directe auditieve feedback van de boodschap die hij verzend (en dus de mogelijkheid deze aan te passen); hij hoort hetzelfde als de ontvanger.

6) Specialisatie. Taalklanken hebben altijd een specifieke betekenis, oftewel een linguïstische bedoeling. (Sommige geluiden kunnen ook een bepaalde betekenis hebben, zoals huilen van pijn, maar er is dan geen sprake van linguïistische intentie.)

7) Semanticiteit. Linguïstische uitingen hebben altijd een betekenis, door gebruik van de symbolen van de betreffende taal. Hoesten is dus geen taal. Een veelbetekenend kuchje kan wel een manier van communiceren zijn: dit noemt men paralinguïstisch.

8) Willekeurigheid. Er is geen logische connectie tussen het symbool en wat het symboliseert (bijvoorbeeld de combinatie van geluiden “vis” en de betekenis “vis”). Een uitzondering zijn onomatopeeën, waarbij de klank van het woord de betekenis al in zich draagt (zoals “zoemen”). Deze willekeurigheid impliceert dat mensen actief de connecties tussen symbolen (klanken) en betekenis moeten leren en dat iedereen dezelfde betekenis aan een bepaald symbool verbindt, wat communicatie mogelijk maakt. Dit heeft twee belangrijke gevolgen:

1. Flexibiliteit van symbolen. Omdat symbolen niet logischerwijze verbonden zijn aan hun betekenis, is het makkelijk om de verbindingen te wijzigen (bijvoorbeeld autoped is geëvolueerd naar step). Dit in tegenstelling tot een iconisch systeem, waarin een symbool fysieke overeenkomsten heeft met zijn betekenis. In menselijke taal komt gebarentaal hier nog het dichtst bij: in eerste instantie is deze taal op een iconisch systeem gebaseerd, dat echter later ver is uitgebreid.

2. Naamgeving. Een logisch voortvloeisel van een dergelijk flexibel symbolisch systeem is dat alle objecten, emoties, handelingen, abstracte concepten etc. een naam wordt gegeven. Voor nieuwe objecten en ideeën worden nieuwe namen bedacht.

9) Afbakening. Hoewel geluiden en klanken op zich in hun fysieke aspecten een brede range kunnen vertonen (hard-zacht, kort-lang), wordt deze range in gesproken taal afgebakend. De luidheid of duur van een klank heeft in principe geen invloed op de letterlijke betekenis.

10) Verplaatsing. De linguïstische boodschap hoeft niet per se aan het hier en nu te refereren, maar kan ook over de toekomst of het verleden gaan, of over gebeurtenissen waarvan nog niet vaststaat of ze wel of niet gaan plaatsvinden.

11) Productiviteit. De taaluitingen die we doen produceren we zelf; we herhalen niet eindeloos dezelfde zinnen, maar maken steeds nieuwe die in de situatie passen. Taal is een creatief proces, gebaseerd op een basisset regels die maakt dat de uitingen die we produceren begrijpelijk zijn voor anderen.

12) Dualiteit van patronen. Een basisset simpele geluiden (fonemen) die op zich niets betekenen, worden gecombineerd om woorden en zinnen te vormen die wel betekenis hebben.

13) Culturele overdracht. Een mens leert taal omdat hij wordt blootgesteld aan een bepaalde cultuur en zijn taal, en is niet genetisch bepaald zoals bijvoorbeeld het zingen van vogels.

Hoewel dieren ook in verschillende maten van complexiteit met elkaar communiceren, voldoet zelfs de meest geavanceerde dierlijke communicatie bij lange na niet aan de kenmerken van menselijke taal. Hoewel chimpansees bijvoorbeeld verschillende waarschuwingskreten hebben voor verschillende roofdieren (semanticiteti), zijn deze weinig flexibel en vooral genetisch in aanleg. Apen kunnen niet onderling besluiten om ineens een andere waarschuwingskreet te gaan gebruiken, ze hebben geen woorden voor belangrijke concepten als “boom” of “kind”, en verplaatsing en productiviteit zijn al helemaal niet aan de orde.

Vijf belangrijke concepten in taal

Taal wordt wel omschreven als de set geaccepteerde, goed geformuleerde zinnen in een taal. Deze zinnen worden gevormd aan de hand van regels. De set regels waaraan goede zinnen moeten voldoen en waaraan foute zinnen niet kunnen voldoen, heet de grammatica van een taal. De traditionele linguïstische positie is dat grammatica op drie niveaus bekeken kan worden: fonologie, syntax en lexicon of semantiek. Miller (1973) stelt echter dat taal meer is dan alleen grammatica en voegt twee, meer psychologisch georiënteerde niveaus van analyseren toe:

1) Fonologisch (het articuleren en verwerken van de geluiden van taal)

2) Syntactisch (de grammaticale regels en woordvolgorde)

3) Lexicaal of semantisch (woord- en zinbetekenis)

4) Conceptueel (woord- en zinbetekenis in de context van kennis in het geheugen)

5) Overtuigingsgericht (betekenis van zinnen en gesprekken in de context van eigen aannames en overtuigingen, en aannames omtrent de motivatie en doelen van de gesprekspartner)

Een tweede belangrijke concept is competentie vs. prestatie. Competentie is de interne kennis van de taal en de regels die iemand die de taal vloeiend spreekt heeft. Prestatie is het daadwerkelijke taalgedrag: de uitingen die iemand doet. De meeste “dysfluencies”, zoals de draad van een zin of verhaal kwijtraken en opnieuw beginnen of “uh” zeggen, zijn imperfecties in de aandacht of het geheugen van de spreker en niet van de competentie van die spreker. Het is dus moeilijk iets over de competentie te zeggen alleen aan de hand van de daadwerkelijke prestatie. Chomsky vond dat taalvaardigheid van mensen getest moest worden aan de hand van linguïstische intuïties. Deze werden getest door mensen te laten aangeven of een aangeboden zin wel of niet een goede zin was. Op deze manier kon een beter beeld verkregen worden van de daadwerkelijke competentie. Voor psycholinguïsten is prestatie, en de factoren die haar beïnvloeden, juist interessant, omdat deze erg afhankelijk is van de persoon en zijn interne processen.

Een derde belangrijk idee is Whorf’s hypothese. Zijn linguïstische relativiteitshypothese stelt dat de taal die je spreekt de manier waarop je denkt beïnvloedt. Omdat er zoveel structurele verschillen zijn tussen talen, heb je niet voor elke taal precies dezelfde mentale processen nodig. Engels is bijvoorbeeld een taal met erg onregelmatige spellings- en uitspraakregels. In het Koreaans daarentegen zijn uitspraak en spelling direct met elkaar verbonden: “woorden leren spellen” is hen vreemd, omdat een woord kunnen uitspreken betekent dat je het ook kunt spellen. Om Engels te leren moet je dus op bepaalde (geheugen) processen vertrouwen om de spelling en uitspraak goed te kunnen leren.

Een sterke interpretatie van Whorf’s hypothese is dat taal gedachten en perceptie in grote mate beïnvloedt (je kunt niet denken aan een concept of idee waarvoor je taal geen naam heeft). Een mildere interpretatie is dat taal je gedachten beïnvloedt en vormt, wat het moeilijker maakt om te denken aan dingen waar je geen naam voor hebt. Een voorbeeld: de meeste Westerse mensen zullen het idee van optellen en aftrekken (als je 8 appels hebt en je geeft er twee weg....) niet ingewikkeld vinden, maar in samenlevingen waarvan de taal alleen 1, 2, en veel onderscheidt, zal dit een stuk moeilijker zijn.

Fonologie

Taalinteractie vindt plaats doordat de spreker ideeën omzet in (gesproken) geluiden en de luisteraar deze binnenkomende geluiden weer kan omzetten naar ideeën. Hoewel gebaren en non-verbale expressie ook van belang kunnen zijn bij taal, ligt de basis voornamelijk in de fonologie: de geluiden van een taal en de regels over hoe ze gecombineerd worden.

Gesproken taal bestaat uit “basisgeluiden”, die men fonemen noemt. Alle talen samengenomen bevatten ongeveer 200 fonemen; een afzonderlijke taal gebruikt er doorgaans een stuk minder, zoals Engels (ca 46 fonemen) en Hawaiiaans (15 fonemen).

Bij het articuleren van taalgeluiden zijn een aantal factoren van belang (zie tabel op p362 en figuur op p332 in Cognition (2010), Ashcraft). Voor medeklinkers zijn dit er drie: plaats van articulatie, manier van articulatie en stemgebruik (“voicing”). Plaats van articulatie is de plaats waar de luchtstroom wordt onderbroken. Voor de letter b is dit bijvoorbeeld bij de lippen, voor de letter h helemaal achterin de keel, bij de stembanden. De manier van articulatie is hoe de luchtstroom wordt onderbroken. Een stop-medeklinker is een medeklinker waarbij de luchtstoom even helemaal wordt tegengehouden en daarna weer doorgelaten (bijvoorbeeld b). Een fricatieve (“fricative”) medeklinker is er een waarbij de luchtstroom gedeeltelijk wordt tegengehouden, zoals bij de letter f. Stemgebruik heeft te maken met het moment waarop de stembanden beginnen te trillen. Dit kan tegelijkertijd met het tegenhouden van de luchtstroom gebeuren (letter b) of vlak na de obstructie van de luchtstroom (letter p).

Bij de articulatie van klinkers wordt de luchtstroom niet onderbroken. Factoren die bij klinkers van belang zijn is de plaats in de mond (voor, midden of achter) en de positie van de tong in de mond (hoog, middel, laag).

Hoewel medeklinkers in verschillend woorden anders kunnen klinken, herkennen we ze doorgaans wel. Wanneer gekeken wordt naar spectrograaf patronen (frequenties van geluiden over tijd) van woorden blijkt ook dat deze patronen er heel verschillend uitzien voor geluiden die door het menselijk oor toch als hetzelfde foneem worden waargenomen. Een betere definitie van een foneem is dan ook een groep geluiden die, ondanks fysieke verschillen onderling, als hetzelfde foneem beschouwd worden.

Het feit dat klanken die binnen bepaalde grenzen liggen worden gezien (gehoord eigenlijk) als behorend tot één foneem, wordt categorische perceptie genoemd. Verschillende fonemen zijn dus geluiden die door de sprekers van een taal als verschillende klanken worden onderscheiden. De fonemen z en s lijken enigszins op elkaar, maar kunnen niet onderling verwisseld worden; dit verandert de correctheid of betekenis van een woord, zoals bijvoorbeeld in set of zet. Een interessant gegeven is dat, omdat niet alle talen dezelfde fonemen gebruiken, mensen soms verschillende fonemen in een andere taal dan hun moedertaal niet kunnen onderscheiden. Spanjaarden kunnen bijvoorbeeld moeilijk onderscheid maken tussen de Nederlandse b en v, omdat deze in het Spaans niet als afzonderlijke fonemen onderscheiden worden.

Door een beperkt aantal fonemen te combineren volgens bepaalde regels kunnen in een taal bijna oneindig veel verschillende woorden gevormd worden. Dit is in wezen het linguïstische concept van productiviteit, op het niveau van fonologie.

Hoe werken de regels van fonologie? Een simpel voorbeeld: wanneer je de fonemen in het woord “pak” in een andere volgorde zet, is “kap” wel een woord maar “apk” “pka” en “akp” niet. Dit heeft niet te maken met het feit dat deze combinaties niet uit te spreken zouden zijn: in andere talen worden sommige combinaties wel gebruikt, dus de fysieke mogelijkheid is er. De reden ligt doorgaans in vastgelegde regels in een taal, bijvoorbeeld dat medeklinkers met dezelfde manier van articulatie binnen één lettergreep gewoonlijk niet op elkaar volgen. Wanneer je een taal spreekt, ben je je over het algemeen niet bewust van deze regels: je weet impliciet welke klankcombinaties wel en niet kunnen, omdat je dit tijdens je taalontwikkeling uit de taal in je omgeving hebt opgepikt. Het kennen van de regels voor het combineren van fonemen noemt met fonemische competentie. Het gaat er hier alleen om of een combinatie van klanken correct is, niet of het ook daadwerkelijk een woord is. De combinatie erkp is geen geldige combinatie volgens de Nederlandse fonologische regels; de combinatie kerp wel, ook al is het geen bestaand woord.

Spraakperceptie

Hoe verwerkt de luisteraar de geluiden die hij hoort zodat ze iets betekenen? Dit gebeurt niet door losse fonemen waar te nemen en samen te voegen, of door gehoorde woorden te ontleden. De reden dat dit niet werkt is dat fonemen nooit hetzelfde zijn: verschillende sprekers en verschillende combinaties van fonemen maken dat klanken steeds veranderen. Deze veranderlijkheid in fonemen noemt men het probleem van invariantie (het probleem is dat de fonemen niet invariant zijn), ze veranderen de hele tijd.

Bij het uitspreken van een woord zet je niet simpelweg een aantal fonemen achter elkaar. De fonemen overlappen en beïnvloeden elkaar. Terwijl je nog bezig bent de p in het woord “park” uit te spreken, bereiden de stembanden zich al voor op het articuleren van de letter a. Dit betekent dat fonemen op veel verschillende manieren vervormd kunnen worden, afhankelijk van de fonemen die er voor en achter staan. Dit tegelijkertijd articuleren van verschillende klanken noemt men coarticulatie.

De veranderlijkheid in uitspraak van fonemen kan enigszins opgevangen worden door de categorische perceptie, maar het zou onmogelijk zijn om in een data-gedreven proces alle klanken afzonderlijk waar te nemen, te identificeren, samen te voegen met andere klanken en vervolgens in het geheugen te zoeken naar een match voor een woord. De oplossing ligt in het feit dat taalperceptie een concept-gedreven (top-down) proces is. De context – woorden en zinnen die al geïdentificeerd zijn – helpt ons om binnenkomende geluiden te identificeren. Dit gegeven werd ondersteund door een onderzoek van Pollack & Pickett (1964). Zij lieten proefpersonen losse woorden horen die uit een getapete conversatie geknipt waren. Proefpersonen identificeerden 47% van de losse woorden correct, en de percentages namen toe naarmate er fragmenten met meer en meer woorden aangeboden werden, omdat er dan meer syntactische en semantische context voorhanden was. In een ander onderzoek lieten Miller & Isard (1963) proefpersonen drie verschillende soorten zinnen “schaduwen” (simultaan herhalen, zie H4). Er waren grammaticaal en semantisch correcte zinnen (‘Feestjes zorgen meestal voor rommel in je huis’), grammaticaal equivalente maar semantisch incorrecte zinnen (‘Feestjes eten soms olifanten tussen je tenen’) en ongrammatische zinnen (‘Achter feestjes olifant veel met rommel’). Daarnaast waren er verschillende niveaus van achtergrondgeluid, variërend van -5 (achtergrondgeluid harder dan de aangeboden spraak) tot +15 (spraak veel harder dan achtergrondgeluid). Niet verwonderlijk nam de mate van correct schaduwen van de zinnen toe naarmate het achtergrondgeluid relatief minder werd. Dit effect was echter groter voor grammaticaal correcte zinnen dan voor onzin-zinnen (en het grootst voor zinnen die zowel grammaticaal en semantisch correct waren).

Naar aanleiding van recent onderzoek wordt tegenwoordig aangenomen dat perceptie van spraak/taal een combinatie is van data-gedreven en concept-gedreven processen, wat de interactieve benadering wordt genoemd. Dit maakt dat een zin die begint met “Tijdens het voetballen...” bepaalde semantische en grammaticale “verwachtingen” schept die maakt dat relevante klanken en woorden geprimed worden en dus makkelijker waargenomen en verwerkt op data-niveau. Dit effect werkt ook met terugwerkende kracht: bij het horen van de zin “nadat ik hem de ...and schudde zei ik mijn naam” zal men waarschijnlijk het ontbreken van de letter h niet eens horen, omdat door de context duidelijk wordt dat het woord “hand” moet zijn en niet “mand”.

McClelland en Elman (1986) stelden een connectionistische model voor, TRACE, waarin tegelijkertijd op verschillende niveaus linguïstische informatie verwerkt worden. Zowel semantische en grammaticale kennis als fonemische informatie zorgen voor verspreiding van activatie en beïnvloeden elkaar onderling.

De motor theory of speech perception omvat een cognitieve kijk op taalverwerking. Deze theorie stelt dat mensen gesproken taal verwerken door de geluiden te vergelijken met hoe ze deze zelf zouden ‘maken’, dus representaties van de geluiden. Voorbeelden hiervan zijn dat mensen synthesized speech (door bijvoorbeeld een computer) veel makkelijker begrijpen wanneer er sprake is van coarticulatie. Ook is er een overlapping tussen delen van de cortex die meer actief zijn tijdens spraakherkenning met delen die belangrijk zijn voor spraakproductie. En ten slotte kunnen mensen taal makkelijker verstaan wanneer ze de spreker zien praten, dit geeft hen een beter idee van hoe de geluiden worden gevormd.

Een laatste ondersteuning van de invloed van concept-gedreven verwerking is het feit dat we het idee hebben dat gesproken uitingen van taal uit afzonderlijke woorden bestaat. Wanneer je echter iemands gesproken uitingen onderzoekt, blijkt dat woorden achter elkaar gesproken worden, zonder pauzes ertussen. Hoewel we wel pauzes gebruiken in gesproken taal, komen die vaak juist midden in woorden voor en niet aan het eind van een woord. Omdat we de woorden in onze taal kennen en de regels omtrent welke klanken wel en niet op elkaar kunnen volgen in een woord, kunnen we woorden onderscheiden. Dit is de reden waarom een onbekende taal altijd een eindeloze stroom van klanken zonder enige betekenis lijkt: we hebben geen enkel fonologisch, grammaticaal of semantisch aanknopingspunt om woorden en zinnen te onderscheiden.

Syntax

Het tweede niveau van taalanalyse betreft de syntax: hoe woorden in een zin geordend zijn om de onderlinge relaties weer te geven, oftewel: de structuur en volgorde van de zin. Syntax-grammatica is waar je meestal aan denkt bij de term grammatica. Twee belangrijke concepten in syntax zijn woordvolgorde en zinvolgorde. Woordvolgorde en zinvolgorde (bijv. bijzinnen) kan de betekenis van de zin en de betekenis van de woorden veranderen. Kijk bijvoorbeeld hoe, door woordvolgorde te veranderen, de betekenis verandert in de volgende zinnen:

Jan vertelde dat hij dinsdag gaat verhuizen.

Jan vertelde dinsdag dat hij gaat verhuizen.

Een ander onderdeel van syntax zijn de aanpassingen die nodig zijn door andere woorden in de zin. Zo moet het onderwerp en het werkwoord kloppen met elkaar op het gebied van meervoud/enkelvoud. Kijk bijvoorbeeld in de volgende zinnen hoe de betekenis van de zin veranderd.

De moeder van de meisjes die ziek was,

De moeder van de meisjes die ziek waren

Chomsky’s “transformational grammar”

Chomsky wilde de universele aspecten van syntax beschrijven. Zijn eerste observatie was dat woorden niet zomaar achter elkaar gezet worden en equivalente status hebben, maar dat woorden gegroepeerd worden in units zoals “Jan” “dinsdag” ”gaat verhuizen”. Zijn tweede notie was dat de volgorde van deze units veranderd kan worden, al dan niet om de betekenis van de zin te veranderen.

Als eerste wordt de grammatica van de zinstructuur (phrase structure grammar) besproken. Deze grammatica betreft de verschillende woordgroepen en subzinnen in de zin en de verhoudingen tussen deze zinsonderdelen. Zinnen kunnen bijvoorbeeld opgedeeld worden in zelfstandig naamwoord-zinnen, ZZ (noun phrases) of werkwoord-zinnen, WZ (verb phrases).

De zin:

De man verliest een handschoen bestaat bijvoorbeeld uit een ZZ: “de man”, en een WZ: “verliest een handschoen”. De ZZ bestaat weer uit een lidwoord, de bepaler (de) en het zelfstandig naamwoord (man). De WZ bestaat uit een werkwoord (verliest) en een ZZ (een handschoen), welke op zijn beurt weer uit een bepaler (een) en een zelfstandig naamwoord (handschoen) bestaat.

Dit kan door middel van regels op verschillende manieren opgeschreven worden:

Regel

1. Z (zin) = ZZ (zelfst. naamwoord zin) + WZ (werkwoord-zin)

2. ZZ = B (bepaler) + ZN (zelfstandig naamwoord)

3. WZ = WW (werkwoord) + ZZ

4. ZN = man, handschoen, etc

5. WW = verliest, etc

6. B = de, het, een, etc

Dus: Z = ZZ + SZ

We weten: ZZ = B + ZN en WZ = WW + ZZ,

Daarom: Z = B + ZN + WW + ZZ

= B + ZN + WW + B + ZN

= De + man + verliest + een + handschoen

Je zou bovenstaande ook in een diagram kunnen zetten: zie figuur 9.1

Chomsky combineerde deze grammatica van de zinstructuur met twee andere componenten: de lexicale elementen (lexical entries) en de lexicale plaatsingsregels (lexical insertion rules). De lexicale elementen zijn de woorden die we in de zin zetten, de lexicale plaatsingsregels bepalen op welke plekken de woorden gezet kunnen worden. Tezamen vormen deze componenten volgens Chomsky de representatie van de diepe structuur van de zin (deep structure representation): een abstracte, syntactische representatie van de zin. Deze diepe structuur-representatie wordt vervolgens gebruikt om én de oppervlaktestructuur én een semantische representatie te construeren. De oppervlaktestructuur is hoe de daadwerkelijke zin er uit ziet, en de semantische representatie betreft de pure, semantische betekenis (enigszins vergelijkbaar met de propositionele representaties uit H8). De oppervlaktestructuur en de semantische representatie kunnen van elkaar verschillen: een oppervlaktestructuur kan ambigu zijn en meer dan één betekenis hebben, zoals in de zin: “het slaan van de tennisser was onacceptabel” (het is onacceptabel dat de tennisser geslagen werd, of de tennisser stond onacceptabel slecht te spelen).

Soms is het zo dat wanneer een ambigue zin wordt ontleed in een zinstructuur, de twee verschillende betekenissen grammaticaal gezien ook een andere zinsstructuur hebben. In het genoemde voorbeeld is de zinstructuur voor beide betekenissen gelijk: men noemt dit ware ambiguïteit van de oppervlaktestructuur. Chomsky redeneerde dat zijn zinstructuur theorie niet compleet kon zijn, aangezien een goede grammatica geen ambigue zinnen zou moeten kunnen creëren.

Een ander probleem is dat twee zinnen met een compleet andere oppervlaktestructuur en zinstructuur wel dezelfde semantische betekenis kunnen hebben, bijvoorbeeld wanneer de zin in passieve vorm wordt omgezet (Ik pakte de rode jas – De rode jas werd door mij gepakt).

Chomsky loste deze problemen op door een tussenstap te bedenken tussen het onderliggende semantische idee en de oppervlaktestructuur van de zin: transformatieregels. Deze transformatieregels converteren de diepe structuur naar een oppervlakte-zinsstructuur. Hierbij zijn verschillende oppervlaktestructuren mogelijk, zoals actieve, passieve of vragende zinnen, negatieve zinnen en zinnen in verschillende werkwoordtijden. De diepe structuur {hond bijt kat} kan verschillende oppervlaktestructuren hebben, zoals:

De hond beet de kat

De kat wordt gebeten door de hond

Beet de hond de kat?

Transformatieregels maken het ook mogelijk om zinnen en ideeën te combineren, zoals {hond bijt kat} en {kat is gestreept}:

De hond beet de gestreepte kat

De kat, die gestreept is, werd gebeten door de hond etc etc.

Kritiek en de huidige benadering van syntax

In de jaren ‘60 werd research uitgevoerd die het bovenstaande ondersteunde: het bleek dat hoe meer transformaties er op een diepe structuur worden losgelaten, hoe moeilijker de zin te begrijpen is. Eind jaren ‘60 werd men er echter op gewezen dat een zin met meer transformaties doorgaans ook meer woorden bevat en dat zodoende stimulus-factoren (in dit geval lengte van de zin) ook een rol spelen.

Een algemeen punt van kritiek vanuit de psychologie was dat in de linguïstische theorie de nadruk vooral lag op de syntax, terwijl de semantiek een beetje een ondergeschoven kindje bleef. Psychologen waren juist geïnteresseerd in hoe mensen taal gebruiken om een bepaalde betekenis over te brengen. Hoewel in de linguïstiek betekenis niet geheel buiten beschouwing werd gelaten (Chomsky zelf gaf nog aan dat een zin syntactisch correct kan zijn en toch geen betekenis kan hebben), hadden de psychologen toch behoefte aan een andere benadering. Hierover meer in de volgende paragraaf.

De cognitieve rol van syntax

Tegenwoordig zijn psychologen van mening dat syntax helpt om betekenis over te brengen en te begrijpen. Omdat er oneindig veel verschillende zinnen mogelijk zijn, helpt syntax de luisteraar om sneller de betekenis te verwerken en begrijpen. Terwijl de luisteraar slechts passief de syntax moet begrijpen, is de taak van de spreker moeilijker: hij moet moeite doen om een oppervlaktestructuur te creëren die zijn idee goed ondersteunt, zodat de luisteraar het begrijpt. Bock (1982) noemde twee factoren die van belang zijn.

Ten eerste noemt Bock automatische verwerking. Syntactische structuren worden geautomatiseerd door veelvuldige herhaling. Dit is de reden dat jonge kinderen veel dezelfde zinsstructuren of woordvolgordes gebruiken (ze moeten nog geautomatiseerd worden) terwijl volwassenen veel gevarieerder zinsstructuren gebruiken. Gebruik van bepaalde syntactische structuren blijkt overigens geprimed te kunnen worden.

Een tweede punt is planning. Oude theorieën waren doorgaans sequentiëel: het over te brengen idee werd respectievelijk vertaald naar woorden, zinsstructuur en uitspraak/intonatie, waarna de zin uitgesproken werd. Tegenwoordig wordt een meer interactieve benadering aangehangen. Het begin van een zin wordt doorgaans al uitgesproken voordat het laatste deel geheel gepland is: dit verklaart de bekende “eh’s” , pauzes en herstarten in gesproken taal. Deze komen vaker voor wanneer de bedoelde zin complex is of moeilijke ideeën bevat. Ideeën of woorden die moeilijker “bereikbaar” zijn (in het geheugen) worden vaak pas later in de zin geplaatst, zodat de spreker als het ware meer tijd heeft voor retrieval van dat idee en voor het vormen van een correcte zin eromheen.

Betekenis in taal: lexicon en semantiek

Na fonologie en syntax wordt nu het derde niveau van linguïstische analyse behandeld: lexicale en semantische factoren, oftewel betekenis. Een van de belangrijkste aspecten is woordbetekenis: de retrieval uit het mentale lexicon: het mentale woordenboek van woorden en hun betekenis. Na een snelle perceptie en codering van een stimulus, wordt een link gelegd met het woord en zijn semantische representatie in het lexicon. Dit gebeurt razendsnel en automatisch (denk aan de Stroop taak waarbij betekenis van woorden (rood, blauw) interfereerde met het benoemen van de kleur inkt waarin ze gedrukt waren, en aan priming in lexicale taken). Naast de betekenis van woorden, is ook de positie in de zin van belang voor het verwerken van de betekenis van woorden en zinnen. “Betekenis” is geënt op twee basisbegrippen: morphemen en lexicale representatie.

Morphemen zijn de basis units van betekenis, het zijn de kleinste onderdelen van taal met een betekenis. Deuren bestaat uit twee morphemen: deur (semantisch concept, fysiek object) en –en (geeft meervoud aan). Er worden “vrije morphemen” (deur, boos, sociaal) en “gebonden morphemen” (-en, -heid, a-) onderscheiden. Het is niet geheel duidelijk of een woord als “zelfredzaamheid” als geheel is opgeslagen in het lexicon of dat het steeds samengesteld wordt uit de losse morphemen.

De lexicale representatie van een woord is niet alleen de “droge” betekenis van het woord. Het woord “slaan” heeft een betekenis-node in het geheugen die weer aan andere concepten gelinkt is (zoals hard, pijn, bal). Naast de specifieke betekenis heb je echter ook een heleboel aanvullende informatie over het woord: het is een werkwoord, je kunt het op verschillende manieren gebruiken, bij “slaan” is er altijd een actor en een lijdend voorwerp/ontvanger etc. (vergelijk bijvoorbeeld met de proposities in hoofdstuk 8).

Soms is het begrip van woorden erg duidelijk, maar sommige woorden hebben meerdere betekenissen: polysemy. Het taalsysteem moet dan uitvinden om welke betekenis het in de context gaat, de ‘dominante betekenis’. De andere betekenissen zijn dan de ‘subordinate betekenissen’.

Er is onderzoek met ERP’s gedaan naar zinsherkenning. Mensen kregen dan alle woorden van een zin om de beurt te zien en moesten aangeven als ze dachten het laatste woord van de zin te hebben gezien. Als het laatste woord niet overeenkwam met de context van de zin, gaven mensen nog geen einde van de zin aan (bijvoorbeeld: Een gewapende overval betekent dat de dief gebruik maakt van een wapen/roos). Uit de ERP’s bleek dat neurale mechanismes die bij het begrip betrokken zijn, heel andere patronen lieten zien wanneer er een anomalie werd getoond. De mismatch tussen de al aanwezige betekenis van de zin en het laatste woord zorgt voor verwarring, de zin klopt niet.

Ze ontdekten dat het lezen van semantisch incorrecte zinnen een N400 ERP patroon veroorzaakte, terwijl het lezen van een syntactisch incorrecte zin een P600 patroon veroorzaakte. Dit onderstreept nog maar eens de dissociatie tussen semantiek en syntax.

“Case grammar”: welke rol een woord of concept in een zin speelt

Fillmore (1968) ontwikkelde een psycholinguïstsche alternatief voor de linguïstische theorie die teveel op syntax gefocused was. Hij stelt dat de semantische analyse van zinnen zich moet richten op de semantische rol die woorden en concepten in een zin spelen. Zinnen kunnen namelijk syntactisch verschillend zijn en woorden kunnen verschillende grammaticale rollen aannemen (lijdend voorwerp, onderwerp), terwijl de betekenis in wezen hetzelfde blijft:

Het meisje werd door een auto aangereden.

De man reed met zijn auto een meisje aan.

Deze benadering van Fillmore heette een “case grammar” of “semantic case grammar”. Een zin bestaat uit een werkwoord en een aantal zelfstandige naamwoorden, die ieder een eigen plaats innemen in de betekenisstructuur. Het verwerken van een zin richt zich op deze semantische rollen die de woorden spelen; deze rollen worden “semantic cases” of “case roles” genoemd. Het herkennen van de verschillende rollen die woorden en concepten kunnen spelen steunt in belangrijke mate op bestaande kennis in het geheugen. In de volgende zinnen is het, door onze bestaande kennis, meteen duidelijk welke zin onzin is, hoewel de syntax correct is in alle zinnen:

1) Hij sloeg zijn kleine zusje met een stok.

2) Dat slaat helemaal nergens op!

3) Het koekje sloeg de aap.

Het werkwoord “slaan” heeft altijd een actief, levend object nodig als actor, en een ontvanger die zowel levend als niet-levend kan zijn (broertje, bal). De derde zin klopt dus niet: we weten dat een koekje niet een actief, levend ding is dat kan slaan. De tweede zin klopt dan technisch gezien ook niet, maar hier weten we dat slaan in deze uitdrukking nu eenmaal op deze manier gebruikt wordt.

Samengevat: wanneer we woorden en zinnen in geschreven of gesproken taal tegenkomen, verwerken we naast de betekenis van de woorden ook de kennis die we hebben over de semantische en syntactische rollen die deze woorden in een zin kunnen aannemen, en de implicaties die bijvoorbeeld een werkwoord als slaan met zich meedraagt (actors, ontvangers etc.). Op basis hiervan kunnen we de bedoelde juiste betekenis van de zin verwerken en begrijpen.

Syntax en semantiek kunnen elkaar beïnvloeden. Door de syntax aan te passen kan de betekenis van een zin veranderd, benadrukt of gespecificeerd worden, bijvoorbeeld:

Ik sla een spijker in een plank.

Het is een plank, waarin ik een spijker sla.

Daarnaast kan semantische kennis de syntax van een zin overrulen. Fillenbaum deed een experiment waarin hij proefpersonen zinnen liet parafraseren. Dit konden normale zinnen zijn (Als ik mijn appel gesneden heb, eet ik hem op), vreemde zinnen (Als ik mijn appel niet gesneden heb, eet ik hem op) of chaotische zinnen (Als ik mijn appel heb opgegeten, snij ik hem) zijn. Proefpersonen bleken zinnen tijdens het parafraseren onbewust te normaliseren, en hadden dit vervolgens vaak niet eens door, wanneer ze het origineel met hun geparafraseerde zin vergeleken. Doordat je bestaande kennis bepaalde verwachtingen wekt, lees (of hoor) je over bepaalde dingen heen.

Bewijs voor de case grammar kan aan de hand van twee voorspellingen gezocht worden. Ten eerste wordt aangenomen dat zodra je een zin begint te lezen of horen, je deze begint te verwerken. Ten tweede behelst deze verwerking het toewijzen van case roles aan de verschillende woorden, zodat de betekenis van de zin klopt. Deze aannames worden ondersteund door de volgende zin:

Hoe vaak fietsen er tegenwoordig niet als wrakken bij staan, is niet te beschrijven.

Na het lezen van de eerste woorden verwacht men waarschijnlijk een zin in de trant van “Hoe vaak fietsen er tegenwoordig nog mensen over straat?”, en zal men “fietsen” de rol van werkwoord toebedelen en op basis daarvan de zin verder interpreteren. Bij het verder lezen blijkt dan dat een fout is gemaakt in het toewijzen van de case roles. Dit noemt men het “garden path”- fenomeen: je bent een verkeerd pad ingeslagen en moet dus weer teruglopen en opnieuw beginnen. Het herstellen van deze fout kost tijd: men moet weer vooraan beginnen en opnieuw de case roles verdelen. Dit is duidelijk te zien in experimenten met dit soort zinnen. Wanneer de zin een onverwacht einde heeft, besteedt men veel meer tijd aan de verwerking van het laatste deel van een zin dan wanneer de zin zoals verwacht doorloopt.

Soms kunnen regels voor het toewijzen van case roles expres overtreden worden, zoals in de zin “Hij werd in zijn slaap achtervolgd door de gebeurtenissen van die dag”. Hoewel we weten dat achtervolgen altijd door levende, actieve dingen gedaan moet worden, kunnen we de metaforische betekenis in deze zin begrijpen en kan de zin gewoon verwerkt worden. Dit geldt bijvoorbeeld ook voor figuurlijke betekenissen van woorden of zinnen.

Bij het produceren van taal wil je een propositioneel netwerk van ideeën omzetten in spraak of schrift. Hierbij begin je met de betekenis van woorden en concepten (deze bevatten ook informatie over de syntax en mogelijke case roles) voordat je je met de syntactische structuur bezighoudt. De syntax is vaak nog niet eens “af” wanneer we met een zin beginnen; zoals al eerder bleek is gesproken/geschreven taal een dynamisch en interactief proces. Rechts: het geheel, connecties maken tussen woorden. Links: detail, taalproces.

Taal en de hersenen

Hersenbeschadigingen kunnen het taalvermogen en het begrijpen van betekenis van mensen op verschillende manieren aantasten. Een overzicht:

Aandoening

Verstoring van:

Taalgerelateerd

Broca’s afasie

Wernicke’s afasie

Conductie afasie

Anomie (anomische afasie)

Pure woord doofheid

Alexie

Agrafie

Syntactische kenmerken van spraakproductie

Semantische kenmerken van spraakproductie

Herhalen van woorden en zinnen

Woorden vinden, lexicaal of semantisch

Perceptuele of semantische verwerking van auditief woordbegrip

Lezen of herkennen van geschreven woorden

Schrijven

Anderszins symbolisch gerelateerd

Acalculie

Rekenvaardigheid, retrieval, op regels gebaseerde procedures

Perceptie/beweging gerelateerd

Agnosie

Prosopagnosie

Apraxie

Visuele herkenning van objecten

Visuele herkenning van gezichten

Gerichte bewegingen, ingewikkelde motoriek

Afasieën

Een afasie is een verstoring van taal door een hersen(gerelateerde)beschading of –aandoening. In de praktijk wordt ze doorgaans veroorzaakt door een hersenbeschadiging door bijvoorbeeld een ongeluk of klap of het hoofd, of door aandoeningen zoals hersenbloedingen en ziektes. Het bestuderen van afasiepatiënten is niet alleen belangrijk om hen beter te kunnen behandelen en begeleiden, maar helpt ons ook om de neurologische basis van taal te begrijpen. Hier worden de drie meest voorkomende soorten afasie besproken.

Broca’s afasie. Deze vorm van afasie wordt gekenmerkt door problemen met het produceren van gesproken taal, vooral het vormen van vloeiende zinnen. Uitingen zijn haperig, moeizaam en fonemisch abnormaal, bestaan vaak uit losse woorden en maken nauwelijks gebruik van gebonden morphemen (-heid, -en, etc). Deze vorm van afasie werd in de jaren 1860 ontdekt door Pierre Broca, die meteen de beschadigde plek in de hersenen lokaliseerde. Broca’s hersengebied ligt achterin de linker frontaalkwab, tegen de motorische cortex aan, en dit verklaart de motorische problemen van taalproductie in Broca-patiënten. Het semantische taalbegrip van deze patiënten is echter doorgaans weinig beschadigd. Deze vorm wordt ook wel “agrammatische afasie” genoemd, doordat de grammatische vloeiendheid en coördinatie beschadigd zijn.

Wernicke’s afasie is ongeveer het tegenovergestelde van Broca’s afasie. In Wernicke’s afasie is het begrip van taal beschadigd; herhalen, benoemen, lezen en schrijven zijn beschadigd, maar de syntactische aspecten van taal zijn intact. Uitingen zijn doorgaans vloeiend en grammaticaal correct, maar er worden onherkenbare, semantisch onzinnige of zelfverzonnen woorden (neologismen) en uitdrukkingen gebruikt. Kenmerkend is dat patiënten zelf niet doorhebben dat ze onbegrijpelijke taal uitslaan. Carl Wernicke identificeerde de stoornis en de beschadigde locatie in de hersenen, een gebied in het achterste gedeelte van de linker temporaalkwab, vlak bij de auditieve cortex.

De verschillen tussen Broca’s en Wernicke’s afasie laten zien dat er in taal sprake kan zijn van dubbele dissociatie, én dat semantiek en syntax in de hersenen (in ieder geval gedeeltelijk) onafhankelijk georganiseerd zijn.

Conductie afasie. In deze vorm van afasie kunnen patiënten taal vrij goed begrijpen en produceren. De verstoring ligt in het feit dat ze niet kunnen herhalen wat ze net gehoord hebben. Het lijkt alsof de link tussen begrip en productie verstoord is, en inderdaad blijkt het hersengebied dat bij deze aandoening beschadigd is, een belangrijke verbinding te zijn tussen Broca’s (spraakproductie) en Wernicke’s (taalbegrip) gebied.

Anomie, woordvinding, is een verstoring in het vermogen een semantisch concept naar boven te halen en van een naam te voorzien. problemen met het vinden van woorden hebben over het algemeen meestal te maken met een beschadiging van de linkerhemisfeer; in ernstige anomie ligt de beschadiging meestal in de linker temporaalkwab. Echte anomie is anders dan het “puntje-van-mijn-tong” fenomeen. In sommige vormen is alleen de lexicale component beschadigd (concept met een woord benoemen) en is de semantische component intact.

Naast deze afasieën zijn er nog een aantal specifieke vormen. Zo is er alexie, het niet kunnen lezen en begrijpen van geschreven taal. Agrafie is het niet kunnen schrijven. Er zijn gevallen van patiënten die wel konden schrijven maar niet konden lezen (ook niet wat ze zelf net geschreven hadden!). Pure woorddoofheid betekent dat iemand geen gesproken taal kan begrijpen, terwijl hij wel zelf taal kan produceren en geschreven taal wel begrijpt. Kortom: taal bestaat uit verschillende, onafhankelijke componenten, zoals syntax en semantiek, die op hun beurt weer uit gespecialiseerde delen bestaan, die afzonderlijk van elkaar beschadigd kunnen raken. Deze verdeling en specificatie geeft aan dat de hersenen van nature specifiek geadapteerd lijken te zijn voor het leren en gebruiken van taal.

Stoornissen aan de rechterhemisfeer kunnen ervoor zorgen dat bepaaldei nformatie uit het LTM niet meer goed geactiveerd kunnen worden.

In een onderzoek naar het leren van taal lieten McCandliss, Posner & Givon (1997) proefpersonen een nieuwe (simpele) kunstmatige taal leren. In het begin veroorzaakten de nieuwe woorden ERP’s die overeenkwamen met de ERP’s van onzin-woorden, maar na een paar weken kwamen de ERP’s overeen met gewone Engelse woorden. Ook bleek dat frontale gebieden in de linkerhemisfeer reageerden bij semantische aspecten van taal, terwijl posterieure gebieden geactiveerd werden door de visuele kenmerken van de woorden (orthografie).

Back to top

Deel 10 Begrip van geschreven en gesproken taal

De twee hoogste niveaus van taal analyse, die Miller voorstelde, komen hier aan bod: de conceptuele en overtuigingsgerichte niveaus.

Een voorbeeld is de volgende zin:

“Jan miste de bal toen hij op doel wilde schieten.”

Naast de normale processen van het verwerken van de auditieve of visuele input, het toewijzen van case roles en de semantische analyse, moet je ook de ambiguïteit van de zin verwerken. Ten eerste het woord “schieten”: we weten dat het in dit geval niet gaat om schieten met een geweer, maar het schoppen van een bal om een punt te scoren. Een tweede ambiguïteit is echter het woord “hij”, wat syntactisch gezien zowel naar Jan als naar de bal zou kunnen verwijzen. Zelfs als ons al was opgevallen dat dit een mogelijkheid is (wat onwaarschijnlijk is, omdat je bestaande kennis je al primed), wordt deze mogelijkheid direct verworpen omdat we weten dat ballen niet zelf kunnen schieten. Deze informatie maakt deel uit van je semantische kennis, maar staat niet expliciet in je lexicon, dit wordt conceptual knowledge genoemd.

Naast dit conceptuele niveau van verwerking, analyseer je taal ook aan de hand van je eigen overtuigingen (“beliefs”). Op basis van je eigen ervaringen en overtuigingen kun je het wel of niet met uitingen eens zijn, en je kunt onderscheiden dat anderen een andere mening over iets kunnen hebben wat hun uitingen kleurt. Denk bijvoorbeeld aan reclames of speeches van politici: die geloof je ook niet altijd klakkeloos.

Een ander belangrijk deel van onze taalkennis is regels. Naast regels die je weet over syntax fonologie etc., zijn er ook regels over taal in bredere zin. Zo kun je bijvoorbeeld bepaalde strategieën of uitdrukkingsvormen gebruiken om bepaalde dingen te benadrukken. Denk bijvoorbeeld aan het subtiele verschil tussen “ik vind je aardig maar nu ben ik boos op je” en “ik ben nu boos op je maar ik vind je wel aardig”. Andere voorbeelden zijn handigheidjes om te verwijzen naar dingen of mensen die eerder in een verhaal voorkwamen en uitdrukkingen die we niet al te letterlijk nemen (“heeft u een momentje?”) en de subtiele regels voor interactie in een gesprek. De meeste van deze regels kunnen we niet een identificeren of benoemen, maar maken deel uit van je impliciete taalkennis, dit wordt pragmatiek genoemd.

Vroege research en kritiek

Jarvella (1970) deed onderzoek naar dat mensen een tekst niet letterlijk onthouden maar de betekenis wel. Zijn theorie was dat, bij het lezen van zinnen, mensen alleen de zin die ze op dat moment aan het lezen zijn, letterlijk in het werkgeheugen bewaren. Van voorgaande zinnen worden, zodra ze gelezen zijn, alleen de semantische betekenis opgeslagen. Hij testte dit door proefpersonen een stuk tekst te laten beluisteren en ze abrupt te onderbreken, waarna ze zoveel mogelijk van wat ze als laatste gehoord hadden letterlijk moesten opschrijven.

Je zou in ieder geval verwachten dat het meest recent gehoorde zinsdeel het beste onthouden zou worden. Dit bleek voor de 1e en 3e zinsdelen waar te zijn: de 3e zindelen werden beter onthouden dan de 1e. Aan welke zin het 2e zinsdeel gekoppeld was had hier geen invloed op. Het 2e zinsdeel werd echter beter onthouden wanneer het met het 3e zinsdeel één zin vormde dan wanneer het met het 1e zinsdeel een zin vormde. Dit kwam dus overeen met het idee dat zodra een zin “afgelezen” was, de letterlijke woorden uit het geheugen verdwenen en alleen de betekenis overbleef.

Om begrip van taal te kunnen onderzoeken zijn “online comprehension tasks” nodig. Deze taken meten een proces op het moment dat het plaatsvindt. In geschreven taken gebeurt dit meestal door een zin op een computerscherm te laten zien, gevolgd door een woord dat herkend, voorgelezen of als echt/onzinwoord bestempeld moet worden. Wanneer bijvoorbeeld een ambigu woord in de zin staat (zoals graaf), kun je kijken of (na presentatie van de zin) het oplezen van woorden die met de twee verschillende betekenissen te maken hebben (zoals kasteel, schep) even snel worden gelezen (beide betekenissen van graaf geprimed) of dat er één sneller gaat (maar één betekenis van graaf geprimed).

Metacomprehensie

Als je net iets gelezen hebt en je hebt het begrepen, wil dit niet zeggen dat je het ook zult onthouden. Je hebt je metacomprehensie nodig om bij te houden hoe goed je iets begrijpt en onthoudt. Een meetinstrument van metacomprehensie is judgments of learning (JOL). Men moet dan zelf een schatting geven van hoe goed ze iets wat ze net gelezen hebben, ook geleerd hebben. Echter, de relatie tussen de JOL en de echte prestatie is vaak laag. Deze problemen doen zich ook voor bij het inschatten van planning en tijdbesteding. Het labor-in-vain effect treedt op als mensen veel tijd besteden aan het leren van informatie dat te ver afstaat van het huidige kennisniveau. Een betere comprehensiestrategie is het leren van informatie binnen de region of proximal learning: informatie dat net buiten het huidige kennisniveau ligt.

Gernsbacher’s “structure building framework”.

Gernsbacher combineerde bekende ideeën, zoals uitspreidende activatie en proposities, met online technieken. Taalbegrip is volgens hem geënt op het bouwen van mentale structuren. Dit gebeurt aan de hand van drie stappen, hier geïllustreerd met de volgende zin:

Klaas trainde hard om in het eerste voetbalteam te komen

1) Het leggen van een fundering/basis: wanneer we beginnen met het lezen of horen van een zin, beginnen we met het maken van een structuur. De focus komt meestal te liggen op het object of karakter dat als eerste genoemd wordt in de zin, in dit geval dus Klaas. Klaas is de zogeheten “discourse focus” van de zin, en terwijl we verder lezen wordt de basis van een semantische netwerk rond Klaas gelegd, met daarin de belangrijkste relatie (trainde).

2) Het in kaart brengen van informatie (mapping): het semantische netwerk wordt uitgebreid met aanvullende informatie uit de zin en informatie die je infereert (Klaas zal waarschijnlijk lid zijn van een voetbalvereniging).

3) Het switchen naar een nieuwe structuur: nieuwe woorden en begrippen worden zo mogelijk ingevoegd in de bestaande structuur. Op een gegeven moment kan echter een nieuw concept, een verandering van focus voorkomen, bijvoorbeeld met de zin: Omdat de coach op zoek was naar nieuwe talenten, waren er selectietrainingen. Woorden als omdat, hoewel, in de tussentijd etc. zijn een belangrijke clue voor het starten van een nieuwe structuur. Hoewel de zin over Klaas wel in de geheugen voor het algemene verhaal blijft, ligt de focus nu even op de nieuwe structuur over de coach.

Twee controle mechanismen staan in verbinding met het verspreiden van activatie. Bijvoorbeeld de twee zinnen:

1. ‘Dave studeerde hard voor zijn statistiek toets.’

2. ‘Omdat de leraar de reputatie had van het geven van moeilijke examens, wisten de studenten dat ze goed voorbereid moesten zijn.’

Een aantal aspecten uit zin 2 bevatten de informatie uit zin 1. Toets en examen activeren hetzelfde geheugenconcept, ze zijn semantisch gerelateerd. Dit is enhancement, dat gerelateerde concepten elkaar activeren. Als geactiveerde concepten elkaar onderdrukken wordt dit suppressie genoemd.

Niveaus van begrijpen

Het begrijpen van taal is een complex proces, dat uit meerdere niveaus bestaat. Een van die levels is de surface form (oppervlakte vorm), onze letterlijke mentale representatie van de exacte woorden en syntax die gebruikt worden in een stuk tekst. Een tussen level is de propositional textbase, die de basis ideeën van een tekst omvat. Als laatste is er het situation model, wat een mentale representatie is van de wereld zoals omschreven wordt door de tekst.

Lezen

Leesvaardigheid werd altijd getest door mensen een tekst te laten lezen en ze er vervolgens vragen over te laten beantwoorden. Hoewel dit een goede test is voor leesvaardigheid in het dagelijks leven, vertelt hij ons weinig over de specifieke mentale processen zoals activatieniveaus. Om deze te onderzoeken hebben we gedetailleerde onderzoeken nodig, met methodes als oogbewegingen en –fixaties. Vooral het volgen van “gaze duration” (hoe lang je je blik ergens op richt, ook wel oogfixatie) is een veelgebruikte methode in het onderzoek naar lezen. Door een combinatie van een computerscherm en een videocamera die oogbewegingen registreert kan vastgelegd worden hoe lang en waar een proefpersoon zijn blik richt, dit noem je “eye-tracker”.

Deze vorm van onderzoek berust op twee aannames. De immediacy (onmiddellijkheid) aanname stelt dat lezers woorden proberen te interpreteren zodra ze deze tegenkomen in de tekst. Verwerking begint dus meteen, er wordt niet eerst een groep woorden of zin gelezen. Dit is de oorzaak van het eerdergenoemde “garden path” fenomeen: foute interpretaties die je aan het begin van een zin maakt worden pas ontdekt als je verder leest. De immediacy aanname betekent overigens niet dat verwerking van het ene woord “af” moet zijn voordat aan het volgende woord begonnen kan worden; het is een interactief proces.

De tweede aanname is de “eye-mind” aanname. Het patroon van oogbewegingen reflecteert de complexiteit van onderliggende complexe processen. Hoewel in eerste instantie controversieel, is deze aanname toch waar gebleken, namelijk: het oog blijft gefixeerd op een woord zolang dat woord actief verwerkt wordt tijdens het lezen. De oogfixatie is dan dus een soort maat voor de “mentale tijd” die besteed wordt aan dat woord.

Just (1976) deed onderzoek met een online leestaak: hij volgde oogbewegingen bij het lezen van ambigue zinnen, waarin een voornaamwoord naar verschillende personen aan het begin van de zin kon verwijzen, afhankelijk van de informatie aan het eind van de zin. Proefpersonen bleken onmiddellijk na het lezen van de doorslaggevende informatie letterlijk terug te blikken (hun blik te verschuiven) naar de persoon waarnaar verwezen werd.

Wat algemene informatie over oogfixaties: op verschillende woorden wordt verschillende tijden gefocused, en doorgaans krijgen proefpersonen de opdracht om normaal te lezen, zonder uit het hoofd proberen te leren, en zonder terug te springen naar eerder gelezen woorden (oftewel: ga pas verder met het volgende woord als je het voorgaande woord goed gelezen hebt). Proefpersonen blijken niet altijd te fixeren (dus bewust te lezen) op tussenwoordjes zoals “van” of “de”; slechts 35 % van deze woorden wordt gelezen. Woorden die belangrijk voor de inhoud waren werden echter wel allemaal gelezen, tenzij het om een hele eenvoudige tekst ging of het woord al ruim van tevoren door de context voorspeld kon worden.

Hoewel we in hoofdstuk 2 lazen dat een saccade van het oog bij het bekijken van visuele stimuli ongeveer 200-250 ms duurt, zijn deze saccades bij het lezen veel korter: ongeveer 40ms. Tijdens het lezen wordt echter vaak meerdere keren achter elkaar op hetzelfde woord gefocused. Verschillende onderzoekers meten fixatie op een woord op verschillende manieren, bijvoorbeeld door alleen de eerste fixatietijd te meten, of juist de totale fixatietijd.

Een belangrijk aspect van lezen is dat de lezer zelf bepaalt hoelang hij zich op een woord richt (deze luxe heb je niet wanneer je naar gesproken tekst luistert), en dit kan zoals we zien mooi gebruikt worden om begripsprocessen te onderzoeken.

Het model van Just en Carpenter

De online leestaak bleek twee niveaus van begrip te kunnen onderzoeken: de verwerking van individuele woorden én de verwerking van ideeën en betekenissen van hele zinnen of zinsdelen. De fixaties op individuele woorden werden vergeleken met woord-variabelen zoals lengte, frequentie in de taal, plek in de zin etc. Daarnaast werden de fixatietijden van woorden uit bepaalde zinsdelen of zinnen opgeteld om te onderzoeken hoe grotere (betekenis)units tekst verwerkt worden. Bij het analyseren van de fixatietijden bij het lezen van een technische tekst, bleken zinsdelen met verschillende functies (bijvoorbeeld definitie, onderwerp, aanvullende informatie, detail), te corresponderen met verschillende verwerkingstijden. Dit had gedeeltelijk te maken met de verschillende prevalentie van moeilijke of nieuwe woorden in verschillende functies van zinsdelen (bijvoorbeeld meer moeilijke woorden in definities). Voordat Just en Carpenter de daadwerkelijke tijden maten, deden ze voorspellingen voor de fixatietijden op basis van het Reader Model (van Reichle et al.? Dit is niet duidelijk aangegeven), en die bleken aardig overeen te komen met de daadwerkelijke resultaten.

Het model van Just en Carpenter staat als diagram op pagina 386 in Ashcraft’s Cognition (2010). Het is vergelijkbaar met eerdergenoemde modellen van mentale processen: het werkgeheugen speelt een centrale rol in het verwerken en combineren van informatie, terwijl het lange termijn geheugen verschillende soorten informatie beschikbaar heeft. Bestaande kennis wordt gecombineerd met wat je net hebt gelezen, en dit maakt dat je kunt begrijpen wat je op dit moment leest. Twee belangrijke concepten in het model zijn de “sentence wrap up” en de “interclause integration”. Sentence wrap-up, oftewel het netjes afwerken van een zin, betekent het opvegen van losse eindjes zoals onduidelijke referenties of nog te maken inferenties. Interclause integration (integratie binnen de zin) is eigenlijk hetzelfde maar dan op zinsdeel of bijzin niveau.

Referentie, situatie modellen en gebeurtenissen

Referentie: de verbinding tussen elementen/passages in de tekst.

Refereren is het verwijzen naar een concept of object met behulp van een andere naam, meestal een voornaamwoord of synoniem. In de zin “Jan pakte zijn jas” verwijst “zijn” naar “Jan” ; “Jan” is dan het antecedent van “zijn”, en dit gebruik van een voornaamwoord om naar een eerder genoemd concept te verwijzen noemt men anaforisch refereren.

Onderzoek naar referentie heeft aangetoond dat er een toename is in het aantal keren lezen als de directe referentie nog een keer gebruikt wordt: repeated name penalty.

Refereren kun je op verschillende manieren doen, namelijk door directe referentie (identiteit referentie: ‘ik zag een cabrio, de cabrio was rood’, synoniem referentie: ‘ik zag een cabrio, de auto was rood’ of een pronoun: ‘ik zag een cabrio, hij was rood’)

Een implicatie daarentegen is ergens aan refereren zonder dit expliciet te doen; door iets op een bepaalde manier te formuleren verwacht de spreker dat de luisteraar de referentie begrijpt. Dit noemt men infereren: de luisteraar of lezer legt bepaalde verbanden tussen concepten, begrijpt verwijzingen en trekt een conclusie. We begrijpen bijvoorbeeld allemaal wat er met “vanavond heb ik hoofdpijn” bedoeld wordt...

Een belangrijk aspect van referentie is dat er een bewijs geleverd wordt voor de volgorde waarin antecenten invloed hebben op de mogelijkheid om later weer gerefereerd te worden (zie Gernsbachers theorie): het voordeel van het eerstgenoemde (first mention) en het voordeel van recentheid (clause recency). Het voordeel van het eerstgenoemde is het feit dat ideeën of personen, die aan het begin van een zin of verhaal genoemd worden, een speciale betekenis houden. Wanneer in een zin twee namen genoemd worden, blijken proefpersonen bij een herkenningstaak de eerstgenoemde naam sneller te herkennen dan de later genoemde naam.

Het voordeel van recentheid, oftewel het laatstgenoemde idee wordt beter onthouden, werkt hiertegen in, maar slechts op korte termijn: als je meteen na het horen van de zin de namen moet herkennen (binnen 50ms), dan herken je de laatstgenoemde naam het snelst. Is er echter een vertraging van boven de 150 ms dan wordt dit effect teniet gedaan door het voordeel van het eerstgenoemde.

Het gegeven dat het eerstgenoemde idee of karakter het best onthouden wordt, ondersteunt het idee dat de mentale structuur hieromheen gebouwd wordt. Het blijkt dat het niet eens uitmaakt of het eerstgenoemde idee of karakter wel het onderwerp, actor, lijdend voorwerp of ontvanger in de zin was: als het maar als eerste genoemd werd, wordt het de discourse focus.

Het blijkt dat in gesproken taal we de structuur van onze zinnen aanpassen om de discourse focus aan te geven.

Verder onderzoek van Gernsbacher gaf aan dat gebruik van de gespecificeerde lidwoorden “de” en “het” een zin coherenter en zekerder overkomt dan wanneer “een”, “sommige” etc gebruikt worden. Dit effect was zelfs op een fMRI te zien. Het verwerken van zinnen met een gespecificeerd lidwoord veroorzaakte grotere activatie dan zinnen met een ongespecificeerd lidwoord, en deze activatie was groter in de rechterhemisfeer dan in de linkerhemisfeer. Dit impliceert dat, hoewel de linkerhersenhelft grotendeels gespecialiseerd is in taal, de rechterhelft wel een belangrijk kan zijn voor coherentie- en inferentie processen in taalbegrip, vooral wanneer het niet om losse zinnen maar om sets gerelateerde zinnen gaat.

Situatie modellen

Het opslaan van langere stukken taal of verhalen zou kunnen gebeuren door gebruik van een situatie model: een representatie van een situatie zoals die in een stuk tekst beschreven wordt. Het gaat dus niet om gedetailleerde zinsbetekenis en proposities, maar om de globale aspecten van een situatie of verhaal, waarin informatie over tijd, plaats, objecten, mensen en locaties wordt opgeslagen. De retrieval van het verhaal of situatie wordt beïnvloed door de structuur van je situatie model (bijvoorbeeld of de nadruk op de locatie of op de personen ligt). Rinck en Bower (1995) deden een onderzoek waarin proefpersonen een diagram van een aantal kamers met daarin objecten moesten onthouden. Wanneer ze later een verhaal over de kamers lazen, waarbij zowel informatie die overeenkwam met het geleerde diagram als incongruente informatie stond bleek dat het lezen van informatie die overeenkwam met het diagram sneller ging dan incongruente informatie en informatie die niet in een logische volgorde werd gepresenteerd (wanneer de persoon in het verhaal bijvoorbeeld een kamer “oversloeg” tijdens zijn wandeling).

Refereren en infereren zijn veelvoorkomende fenomenen in de dagelijkse taal. Dit heeft te maken met overbodigheid: door bijvoorbeeld voornaamwoorden te gebruiken vermijd je eindeloze herhalingen in de trant van: Gert trok Gert’s jas aan. Je zegt dan dus Gert trekt zijn jas aan. Doordat we erop kunnen vertrouwen dat andere mensen een basiskennis van woordbetekenis, syntactische regels en algemene kennis over de wereld hebben, hoef je niet elk woord en elke verwijzing uit te leggen. Zie de tabel op p 415 van Cognition, (2002), Ashcraft, voor een overzicht van verschillende soorten refereren en impliceren.

Clark noemt de term overbruggen (“bridging”) als verzamelnaam voor alle vormen van refereren, infereren en impliceren: het gaat om het vormen van een connectie tussen concepten. Om goed te kunnen communiceren moeten de spreker en luisteraar beiden dezelfde bruggen slaan, oftewel beide dezelfde connecties leggen tussen concepten. Wanneer een implicatie bedoeld is door de spreker en vervolgens opgepikt wordt door de luisteraar noemt men dit geautoriseerde inferentie. Wanneer de luisteraar echter een inferentie maakt die de spreker helemaal niet bedoeld had, heet dit een ongeautoriseerde inferentie. Een voorbeeld: een collega vraagt hoe laat het is en jij antwoordt “hoezo, werk ik soms niet snel genoeg ofzo?”.

De bruggen die geslagen worden kunnen sterk variëren in complexiteit. In de zinnen “Ik wilde de hond uitlaten. Helaas kon ik zijn riem niet vinden” is de connectie (hond-riem) makkelijker gelegd dan “Ik ging met de hond wandelen. De buurman had zijn vuilnis weer eens te vroeg buiten gezet.”, waarin de denkstappen uitlaten - naar buiten gaan - buurt zien - vuilnis zien gemaakt moeten worden. Denk hierbij aan het begrip typisch-heid van leden van categorieën en van kenmerken in hoofdstuk 7: hoe sterker concepten in het semantisch geheugen geassocieerd zijn, hoe sneller of makkelijker infereren zal gaan.

Processen en mogelijkheden van infereren.

Hoewel het simpel mag lijken, moeten er tenminste drie processen plaatsvinden wanneer iets geïnfereerd wordt. Ten eerste moet de betekenis van hetgeen je leest worden “opgezocht” met behulp van semantische en syntactische (geslacht, meervoud/enkelvoud etc) cues. Vervolgens moet deze informatie in het werkgeheugen blijven terwijl je op zoek gaat naar mogelijke verbanden en inferenties. Tenslotte moet het geheel geïntegreerd worden: antecedenten en referenten herkennen, verbanden tussen zinnen leggen, bepalen wat wel en niet relevant is, etc. Hierbij gebruiken we informatie uit alle soorten lange termijn geheugen.

Andere onderzoekers argumenteren echter dat er veel meer online inferentie plaatsvindt, dat tijdens het lezen van een tekst bijvoorbeeld automatisch verschillende inferenties gemaakt worden en dat deze extra informatie met de rest van de informatie in de tekst opgeslagen wordt in het geheugen. Wanneer in een zin een bepaalde context geactiveerd wordt (bijvoorbeeld “voetballen”) zal in een volgende zin, die niet expliciet voetballen noemt, het woord “doel” automatisch gekoppeld worden aan het eerdergenoemde voetballen. Online inferentie werkt dus ook verspreid over meerdere zinnen. Hierbij moet wel gezegd worden dat het alleen werkt wanneer er een sterke connectie is tussen de concepten.

Speech act: je intentie waarom je iets zegt.

Er blijken individuele verschillen te zijn in de vaardigheid van het infereren: mensen die beter kunnen lezen of een groter werkgeheugen hebben, kunnen sneller en beter infereren. Ook spelen versterking en onderdrukking een rol. Concepten die centraal zijn in de betekenisstructuur zijn breder geworteld in de mentale representatie en dus sneller te “retrieven”. Door bepaalde woorden te benadrukken, bijvoorbeeld met een voornaamwoord als referent (“Er was dus die vent...”), blijven ze beter geactiveerd. Onderdrukking vindt plaats wanneer een concept negatief gemaakt wordt (“er was geen taart...”) of helemaal niet meer genoemd wordt in een verhaal of tekst. Onderdrukking maakt volgens Gernsbacher het verschil tussen goede en slechte lezers: slechte lezers kunnen moeilijker irrelevante concepten en woorden onderdrukken. Hierdoor blijven deze geactiveerd en wordt er meer plek in het werkgeheugen ingenomen door onnodige inferenties. Daarnaast switchen slechte lezers te snel naar een nieuwe mentale structuur. Updating is de verandering van het model omdat de situatie is veranderd.

Er zijn veel factoren die te fixatietijd op een woord beïnvloeden. Hieronder staan er een aantal, onderverdeeld in factoren die de fixatietijd vergroten of juist verkleinen:

Vergroting van fixatietijd:

- Oogbeweging naar het begin van een nieuwe regel.

- Aantal lettergrepen in een woord.

- Begin van een nieuwe zin.

- Nieuw woord (in de tekst).

- Woord dat cruciaal is voor het onderwerp en de betekenis.

- Hertoewijzing van een case role.

- Herstellen van een andere fout.

- Integratie van informatie (na een woord, bijzin, zin, sectie of paragraaf).

- Moeite met retrieval van de informatie.

- Sentence wrap-up.

- Referentie- en interferentie-processen.

Verkleining van fixatietijd:

- Frequentie van het woord in de taal.

- Herhaling van een weinig voorkomend woord.

- Uitgekomen verwachting op basis van betekenis/context.

Toewijzing van een case role, tenslotte, kan de fixatietijd vergroten of verkleinen, afhankelijk van de case role.

Just en Carpenter benadrukken dat, hoewel veel modellen óf op bottom-up óf op top-down processen geënt zijn, hun eigen model een integratie van beide kanten is.

Ten slotte nog een aantal opmerkingen. Fonologische informatie blijkt een rol in leesvaardigheid te spelen, vooral bij lezers die meer vertrouwen op de tekst-klank-betekenis route (in plaats van de directe tekst-betekenis route). Over het algemeen kan worden aangenomen dat naast linguïstische kenmerken van de tekst, ook cognitieve effecten enorme interactieve invloed hebben op hoe we lezen. Over het algemeen vergemakkelijken deze effecten (zoals scriptkennis, lexicon en verwachtingen op basis van context) het lezen, maar soms kunnen zo ook enigszins averechts werken, zoals bij het garden-path voorbeeld, of bij de volgende zin:

Hoeveel dieren van elke soort nam Mozes mee op de ark?

(er zit een semantische fout in die je niet automatisch detecteert).

Conversaties

Er zijn twee basis kenmerken van converseren die eerst besproken worden: om de beurt praten en sociale rollen.

Om de beurt praten (“taking turns”) is een belangrijk kenmerk: het komt bijna nooit voor dat twee mensen tegelijk praten, behalve op het moment dat er van beurt gewisseld wordt. Er wordt veel gebruik gemaakt van zogenheten “adjacency pairs” van beurten, een paar uitingen die de weg vrijmaken voor een ander deel van de conversatie, een soort korte inleiding dus. (Bijvoorbeeld: Mag ik je iets vragen? – Ja hoor)

Signalen die aanduiden dat we klaar zijn met wat we wilden zeggen zijn pauzeren, een verlaging van toon of volume, of een opmerking naar of oogcontact met een andere persoon. Wanneer we de beurt nog niet door willen geven, geven we deze signalen niet, of we vermijden het gebruik van afsluitende woorden (“weet je”), maken onze zinnen niet echt af, of kijken weg tijdens een pauze.

Sociale rollen en situaties hebben een belangrijke invloed op conversatie gedrag. In gesprekken met mensen die we niet zo goed kennen maken we formeler gebruik van de beurt-regels, en de status van de gesprekspartner (bijvoorbeeld je baas of een vriendin) beïnvloedt ook sterk in hoeverre je deze regels overschrijdt. Je baas zal jou bijvoorbeeld eerder in de rede vallen dan andersom.

Grice (1975) opperde een set van vier conversatieregels die onze gespreksinteractie bepalen. Deze regels regelen de interactie met anderen. Deze regels zijn gebaseerd op het principe van coöperatie: mensen nemen over het algemeen aan dat anderen de conversatieregels kennen en hun best doen om waardevolle contributies aan het gesprek te maken. Grice’s regels werden aangevuld met twee andere, en luiden als volgt:

Principe van coöperatie: wees oprecht, redelijk en:

1) Zorg dat je toevoegingen relevant zijn: blijf bij het onderwerp en laat overbodige zaken weg

2) Kwantiteit: zorg dat je niet teveel en niet te weinig informatie biedt.

3) Kwaliteit: spreek de waarheid, overdrijf niet.

4) Manieren en toon: vermijd onduidelijkheid en langdradigheid, onderbreek niet en wees beleefd.

Twee extra regels:

5) Let op de relatie met de gesprekspartner: verplaats je in de kennis en overtuigingen van de ander, om beter te kunnen infereren en misverstanden te voorkomen

6) Bewuste regelovertredingen en de reden ervoor dienen aangegeven te worden, door bijvoorbeeld gebaren, overdrijven, andere signalen

Topic maintainance” betekent dat de toevoegingen aan het gesprek relevant zijn en niet afdwalen van het onderwerp. Om te zorgen dat je niet afdwaalt is het belangrijk de kern van wat je gesprekspartner zegt te identificeren en dit te gebruiken in je antwoord. Wanneer Gert zegt:

Ik ben gisteren naar de film geweest,

dan kun je zeggen:

Oh ja, welke film heb je gezien?

Ik ben gisteren naar school geweest.

Het eerste antwoord is beter omdat het op de kern ingaat, namelijk de film. Het tweede antwoord gaat in op een ander aspect, namelijk “gisteren”, wat in dit geval niet echt relevant is. Een andere mogelijkheid is dat je expres het tweede antwoord geeft, omdat het je niet interesseert wat Gert heeft gedaan, of omdat je baalt dat hij naar de film is geweest en jij de hele dag op school zat. In dit geval gaat het om een bewuste overtreding van de gespreksregels, die benadrukt dient te worden zodat Gert de boodschap begrijpt, bijvoorbeeld door te benadrukken: Nou, leuk voor je. IK moest gisteren gewoon naar school.

Tenslotte vormen we tijdens gesprekken theorieën over onze gesprekspartner, de theory of mind. De meest duidelijke zijn de directe theorieën: een theorie over wat de gesprekspartner weet en interessant vindt, en wat voor persoon hij is. Hier passen we onze uitingen dan op aan. Zo praten we tegen een kind met simpele zinnen en niet te moeilijke woorden, en zullen we niet eindeloos doorpraten over een psychologisch experiment tegen iemand die hier niet in geïnteresseerd is. Dit wordt ´audience design´ genoemd, wat betekent dat je je bewust bent van het feit dat je je spraak aan moet passen aan de eigenschappen van het publiek. Echter, wanneer de spreker weinig van zijn publiek weet, kan hij er eerst van uitgaan dat het publiek weet wat hij weet en dan vervolgens in de loop van het gesprek deze theorie aan gaan passen aan de hand van observaties.

Een tweede laag van theorieën behelst de tweedegraads (second order) theorieën. Dit zijn theorieën over hoe en wat de gesprekspartner over jou denkt, oftewel een evaluatie van de directe theorie van je gesprekspartner.

Een voorbeeld:

A: Ik denk dat ik dit jaar een danscursus ga volgen

B:Waarom een danscursus? Dat is toch alleen maar een beetje op en neer springen?

Of:

B: Is dat wel iets voor jou? Daar moet je toch een goede motoriek voor hebben?

A’s directe theorie is in eerste instantie dat B wel geïnteresseerd zal zijn in of A wel of niet een danscursus gaat volgen; daarom snijdt A immers het onderwerp aan. Op basis van het eerste antwoord van B zal A’s directe theorie wellicht zijn: “B weet duidelijk niet zoveel van danscursussen af als hij zo’n opmerking maakt.”

Bij het tweede antwoord van B kan A’s directe theorie zijn: “B is niet erg aardig want hij beledigt mij” en de tweedegraads theorie: “B denkt dat ik geen goede motoriek heb”.

Effecten en kenmerken in conversaties

Mensen blijken erg gevoelig voor indirecte verzoeken, bijvoorbeeld “Het is erg koud hier” zeggen wanneer je wil dat iemand de deur achter zich dicht doet. Meestal zijn indirecte verzoeken beleefder dan directe (“Doe de deur dicht”). De effecten werden duidelijk gedemonstreerd in een onderzoek waarin diverse verkopers gebeld werden met de vraag “Accepteren jullie creditcards?”. Bijna alle verkopers gaven een uitgebreid antwoord: in plaats van alleen “Ja” te zeggen (wat op zich een correct antwoord is), specificeerden ze welke creditcards geaccepteerd werden, terwijl dit niet expliciet gevraagd was.

Holtgraves (1994) vond een interessant effect op dit gebied, namelijk dat indirecte verzoeken eerder als zodanig begrepen werden wanneer de persoon die het verzoek deed een hogere status had. Wanneer je baas zegt “Goh die planten zien er wat dor uit” infereer je sneller dat hij wil dat je ze water geeft dan wanneer een vriend het zegt.

Een ander effect is het voorkomen van gezichtsverlies bij anderen. Holtgrave liet proefpersonen een conversatie binnen een gegeven situatie lezen, bijvoorbeeld: Klaas had een schilderij gemaakt en liet dit aan zijn vriend Piet zien. Er waren een aantal mogelijkheden: óf er werd niets gespecificeerd over de kwaliteit van het schilderij (neutraal), óf er werd aangegeven dat het een erg mooi schilderij was(positief), óf er werd aangeven dat het schilderij erg lelijk was(negatief). Vervolgens werd gekeken hoelang proefpersonen erover deden om twee verschillende mogelijke antwoorden van Piet te begrijpen. Het antwoord van Piet was óf een smoes/ontwijkend, zoals: “Het is best moeilijk om een goed schilderij te maken”, óf een verandering van onderwerp: “Heb jij gisteren de voetbalwedstrijd gekeken?”. Deze antwoorden zijn natuurlijk vooral geschikt in het geval dat het schilderij van Klaas afzichtelijk is (om Klaas gezichtsverlies te besparen). De resultaten lieten dan ook zien dat proefpersonen de ontwijkende en off-topic antwoorden van Piet sneller begrepen in de neutrale en negatieve conditie dan in de positieve conditie.

Hoewel mensen regelmatig hun uitspraken aanpassen om anderen te manipuleren (zoals bijvoorbeeld niet direct tegen iemand zeggen dat zijn outfit lelijk is, of excuses bedenken bij eigen falen om de mening van de ander te beínvloeden), gebeurt dit niet zo gemakkelijk en automatisch als we misschien denken. Een algemene notie was het “optimal design” principe van Clark (1992): het idee dat mensen hun spraak aanpassen om ervoor te zorgen dat de luisteraar deze zo goed mogelijk kan begrijpen (bijvoorbeeld door de relevantie regel en relaties met conversatiepartners in het oog te houden).

Egocentrische spraak, zoals we die bij kinderen zien (niet het perspectief van anderen kunnen nemen), zou in dit geval een no-go zijn: om het gesprek optimaal te laten verlopen moet je je uitspraken immers aanpassen aan wat de ander weet en interesseert. Tegen de verwachting in blijkt echter dat volwassenen zich heel vaak schuldig maken aan egocentrische spraak. Vaak zijn hun uitspraken in eerste instantie egocentrisch. Pas na de uitspraak wordt er gecorrigeerd, en dan vaak onvolledig. Pas zodra uitingen wat bewuster gepland worden, in de loop van de uitspraak of het gesprek, vinden er correcties plaats voor het perspectief van anderen. Samengevat hebben directe en tweedegraads theorieën enige invloed op onze uitingen, maar worden uitingen in eerste instantie geleid door een egocentrisch perspectief.

Gesture is de lichaamstaal die wordt gebruikt bij het converseren met elkaar.

Back to top

Deel 11 Beslissen, beoordelen en redeneren

De mentale processen in de voorgaande hoofdstukken, hoewel grotendeels onbewust, zijn erg belangrijk: het zijn de basisblokken van de meer bewuste, doelmatige processen waar we doorgaans aan denken bij de term cognitie: beslissingen nemen, redeneren en probleemoplossend vermogen.

Bestaande kennis beïnvloedt niet alleen deze processen, maar maakt zelfs dat we onbewust naar bewijs zoeken dat onze eigen overtuigingen en beslissingen ondersteunt.

Formele logica en redeneren

Syllogismen zijn groepen van drie statements, waarvan op basis van de eerste twee een logische conclusie (de derde statement) getrokken kan worden. Voorbeelden:

Alle A zijn B Alle ratten zijn zoogdieren Alle ratten zijn dieren

Alle B zijn C Alle zoogdieren zijn dieren Alle dieren hebben bestaansrecht

Dus: alle A zijn C Dus: alle ratten zijn dieren Dus: Alle ratten hebben bestaansrecht

Uit deze voorbeelden is te zien dat conclusies die op basis van logica waar zijn, niet altijd even goed tot de verbeelding spreken. Er zijn natuurlijk voor de meeste gevallen wel uitzonderingen te bedenken. De regel is echter dat in logica de validiteit ondergeschikt is aan de logische waarheid.

Alle A zijn B Alle schapen zijn dieren

Sommige B zijn C Sommige dieren zijn wit

Dus: sommige A zijn C Dus: sommige schapen zijn wit

De bovenstaande conclusies lijken waar, maar zijn het niet. Kijk maar wat er gebeurt als je in plaats van “wit” “groen” invult. Dit soort complexere syllogismen worden vaak makkelijker als je een Venn-diagram maakt (zie figuur 11.1). Als je een Tuler-diagram kunt bedenken waarvoor de conclusie niet klopt, dan kun je het hele syllogisme verwerpen. Kortom: probeer de onwaarheid te bewijzen, en als dat niet lukt kun je pas aannemen dat het syllogisme klopt.

Conditioneel redeneren, ‘als-dan’, de tweede belangrijke soort logica, bestaat uit een conditionele zin, die een bepaalde relatie aangeeft, gevolgd door een vorm van bewijs. Conditioneel redeneren is dan het beslissen of het bewijs de conditionele zin ondersteunt, niet ondersteunt, of irrelevant is. De conditionele zin bestaat uit een als-dan statement, oftewel een antecedent en een

consequentie.

Een algemeen voorbeeld:

Als X (een mogelijke oorzaak), dan Y(het effect)

Vier soorten bewijs: X (X is waar)

Niet X (X is niet waar)

Y (Y is waar)

Niet Y (Y is niet waar)

Door de soorten bewijs te combineren met de conditionele zin ontstaan er vier mogelijkheden:

(1) (2) (3) (4)

Als X, dan Y: X Niet X Y Geen Y

Dus Y Geen conclusie Geen conclusie Dus geen X

Bij (1) wordt de antecedent bevestigt, dit noemt men ook wel de modus ponens. Als je weet dat X waar is kun je een valide conclusie trekken, namelijk dat Y waar is.

Bij (4) wordt de consequentie ontkend, dit noemt men wel de modus tollens. Als je weet dat Y niet waar is, kun je eveneens een valide conclusie trekken, namelijk dat X niet waar is.

Bij (2) wordt de antecedent ontkend, maar op basis daarvan kun je geen valide conclusie trekken: als X niet waar is, betekent dit niet per sé dat Y ook niet waar is.

Bij (3) wordt de consequentie bevestigd, maar je kunt geen valide conclusie trekken: omdat Y waar is, hoeft X niet per sé waar te zijn.

(2) en (3) zijn vormfouten.

Uit onderzoek blijkt dat mensen weinig moeite hebben met de modus ponens (bij opdrachten 100% correct), maar dat de modus tollens ze meer moeite kost (77% correct). Fouten die mensen maken bij het conditioneel redeneren vallen doorgaans in drie brede categorieën.

1) Vormfouten

Een veelvoorkomende mogelijkheid is dat mensen twee invalide conclusies trekken, zoals wanneer de antecedent ontkend of de consequentie bevestigd wordt. Een andere fout die mensen vaak maken is het omdraaien van de als-dan relatie. “Als X, dan Y” is niet gelijk aan “als Y, dan X”.

2) Zoekfouten

Mensen zoeken vaak niet echt naar bewijs maar geven een antwoord gebaseerd op een eerste indruk of voorbeeld. Een belangrijkere fout die mensen maken is alleen te zoeken naar positief bewijs, oftewel de confirmation bias. In een bekend experiment kreeg een proefpersoon 4 kaarten te zien waar respectievelijk E, K, 4 en 7 opstond. Bij de kaarten hoorde de regel: Een kaart met een klinker heeft een even getal op de achterkant. Proefpersonen moesten beslissen welke kaart(en) ze om zouden draaien om de regel te controleren. 33% van de proefpersonen draaide alleen kaart E om, oftewel het bevestigen van de antecedent (modus ponens). De meeste proefpersonen testten echter niet daarnaast ook de modus tollens (ontkennen van de consequentie): slechts 4% draaide ook kaart 7 om. Proefpersonen draaiden liever (46%) naast kaart E ook kaart 4 om, oftewel het bevestigen van de consequent, wat leidde tot een invalide conclusie.

Interessant was dat wanneer in plaats van een dergelijke abstracte opdracht een opdracht gebaseerd op een concrete situatie werd gegeven, 21 uit de 24 proefpersonen de juiste twee keuzes maakten. Dus hoewel abstract redeneren voor volwassenen vaak moeilijk blijkt, kunnen ze vergelijkbare redenaties wél maken in concrete situaties.

3) Geheugenfouten

Beperkingen van het geheugen spelen tenslotte ook een rol. Johnson-Laird stelde dat logische problemen opgelost worden met behulp van een semantisch mentaal model. Dit maakt het oplossen van abstracte problemen ook zo moeilijk. Bij concrete problemen waarbij de statements zich opstapelen wordt het werkgeheugen al snel overbelast, wat leidt tot fouten. Daarnaast trekken mensen makkelijker conclusies die overeenkomen met de eerste conditionele relatie die ze gezien hebben (Als het sneeuwt, blijven we thuis. We blijven niet thuis. Dus: het sneeuwt niet (onjuiste conclusie).

Hypothesen testen in onderzoek heeft ook met conditioneel redeneren te maken. Wanneer we verwachten dat variabele A een verandering in variabele B teweeg zal brengen en we vinden inderdaad een verandering in B, dan is het erg verleidelijk aan te nemen dat A die teweeg heeft gebracht. Dit is natuurlijk niet zeker: het zou ook kunnen dat variabele C de verandering in B veroorzaakte. Om deze fouten tegen te gaan testen we de nulhypothese: als de nulhypothese waar is (als X), dan is er geen effect op de uitkomst (dan Y). Als er wel een effect op de uitkomst blijkt (niet Y), dan kunnen we dus concluderen dat X niet waar is (modus tollens): de nulhypothese wordt verworpen.

Beslissen over dimensies

Het nemen van beslissingen is in voorgaande hoofdstukken al vele malen aan bod gekomen; meestal ging het om simpele ja/nee beslissingen waarbij een zoekproces (in het geheugen) plaatsvond. Beslissen gebeurt dan door verschillende nodes in een semantisch netwerk langs te gaan om bewijs te vinden voor of tegen een beslissing, Om bijvoorbeeld te beslissen of een karper ogen heeft, kun je langs de “is een vis” en “is een dier” paden tot de conclusie komen dat dit waar is.

Een oud en belangrijk onderzoeksgebied dat hier mee te maken heeft is dat van “psychophysics” (psychofysica), oftewel het bestuderen hoe de perceptie van een stimulus kan verschillen van de daadwerkelijk fysieke stimulus. Er werd vooral onderzoek gedaan naar perceptie van de magnitude (omvang, felheid, luidheid etc) van stimuli, en deze perceptie bleek weinig met de daadwerkelijke stimuli te maken te hebben. Perceptie van de felheid van een lichtpunt, bijvoorbeeld, hangt niet alleen af van de daadwerkelijke felheid, maar ook van de felheid van de achtergrond en hoe lang de lichtbron te zien is. Ook interessant is de minimale verandering die nodig is om een verandering waar te nemen, oftewel de “just noticable difference” (jnd). Deze jnd is ook afhankelijk van diverse factoren, zoals de beginwaarde van de stimulus. Het distance effect of discriminability effect speelt hierin een rol: het effect dat hoe groter de afstand of het verschil tussen twee stimuli is, hoe makkelijker ze van elkaar onderscheiden kunnen worden.

In vergelijkingen of beslissingen tussen symbolen vinden vergelijkbare effecten plaats. Dit wordt dan het “symbolic distance effect” genoemd, en waar in psychofysica de perceptuele informatie een rol speelt, is het in het geval van symbolen kennis uit het lange termijn geheugen die de beslissing beïnvloedt. Wanneer je twee rondjes in een vierkant ziet en je moet zeggen welke rondje hoger is, is dit een psychofysische taak. Wanneer je de twee rondjes echter met een lijn aan de onderkant van het vierkant verbindt en je vraagt welke ballon hoger hangt, komt er een semantisch aspect om de hoek: naast het verschil in afstand, gebruik je je semantische kennis dat ballonnen aan touwtjes hangen en omhoog zweven om te beslissen welke ballon hoger hangt. Wanneer je zou vragen welke ballon lager hangt, zou de beslissing langer duren dan wanneer je vraag welke hoger hangt. Dit noemt men het “semantic congruity effect”: een beslissing wordt sneller genomen wanneer de te beoordelen dimensie overeenkomt met de geïmpliceerde semantische dimensie in de figuur. Oftewel: omdat ballonnen omhoog hangen en niet omlaag, wordt een beslissing over “hoger” sneller genomen dan een over “lager”.

Ook beslissingen over cijfergrootte zijn aan deze effecten onderhevig. Dit heeft men gemeten met behulp van RT’s: hoe snel beslist iemand welk cijfer in een cijferpaar groter of kleiner is? Het distance effect blijkt hier ook te werken: beslissen of 3 dan wel 4 groter is gaat langzamer dan beslissen of 1 dan wel 4 groter is. Ook is het semantic congruity effect te zien: het grootste getal uit twee grote getallen kiezen gaat sneller dan het kleinste getal uit twee grote getallen kiezen. Het kleinste getal uit twee kleine getallen kiezen gaat sneller dan het grootste getal uit twee kleine getallen kiezen. De psychische representatie van oplopende nummers blijkt niet overeenkomstig de realiteit: de “psychische afstand” tussen 1 en 2 is voor mensen groter dan die tussen 8 en 9. Een opvallend verschijnsel is het SNARC effect (Spatial-Numerical Association of Response Codes). Het blijkt dat mensen beslissingen over kleine getallen sneller met de linkerhand maakten en beslissingen over grote getallen sneller met de rechterhand. Dit is consistent met het idee dat mensen een mentale voorstelling hebben van een getallijn: een lijn met getallen die van links naar rechts oplopen.

Deze resultaten bieden de mogelijkheid om te onderzoeken hoe concepten als grootte en andere dimensies in het geheugen vertegenwoordigd zijn door naar reactietijden in beslissingsprocessen te kijken. (Net als in onderzoek naar het semantisch geheugen, waar de RT’s toenamen wanneer concepten verder uit elkaar stonden in het semantisch netwerk.)

Bij het vergelijken van groottes van objecten, bijvoorbeeld dieren, blijken mensen beeldvorming te gebruiken: ze visualiseren de objecten die ze moeten vergelijken, bijvoorbeeld een eend en een cavia. Het distance effect bleek ook hier: beslissen tussen een muis en een koe gaat sneller dan beslissen tussen een rat en een konijn. Moyer en andere onderzoekers vinden dat deze resultaten aangeven dat semantische informatie veelal in visuele vorm is opgeslagen in het geheugen, en niet alleen als verbale proposities.

Ook wanneer perceptuele verschillen werden geëvalueerd tussen concepten die niet direct kwantificeerbaar waren, werden het distance- en het semantic congruity effect gevonden. Over het verschil tussen matig en perfect werd sneller beslist dan over het verschil tussen perfect en zeer goed. Of nog algemenere concepten: het betere kiezen van jammer of feest of het slechtere kiezen van argwaan of geweld ging sneller dan andersom (semantic congruity).

Het blijkt dus dat de distance- en semantic congruity effecten voor zowel kwantitatieve als niet-kwantitatieve en zowel voor perceptuele als voor semantische informatie geldig zijn. Er is dus waarschijnlijk iets algemeens in onze manier van mentale representaties vormen wat onze perceptie en beslissingen van zowel perceptuele als semantische informatie kan beïnvloeden.

Geografische afstanden, tenslotte, bleken aan vergelijkbare effecten onderhevig. Toen proefpersonen de afstanden tussen verschillende Amerikaanse steden moesten indelen op een schaal van 1 tot 9, bleek dat ze de afstanden tussen steden die ver lagen van hun eigen stad (die ze automatisch als referentiepunt gebruikten) relatief kleiner inschatten dan de afstanden tussen steden die dichtbij hun referentiepunt lagen. In een ander experiment moesten proefpersonen de breedtegraad van 34 Noord-Amerikaanse en 34 Europese en Noord Afrikaanse steden inschatten. Hoewel Chicago en Rome ongeveer op dezelfde breedtegraad liggen, werd Chicago noordelijker ingeschat (omdat het in het noorden van de VS ligt) en Rome zuidelijker (omdat het in zuidelijk Europa ligt). Proefpersonen hanteerden kennelijk de illusie dat Noord Amerika en Europa ongeveer op dezelfde hoogte liggen.

Beslissingen in onzekere situaties

“Het plausible-reasoning proces” is het proces waarbij kennis van meerder factoren gebundeld wordt om een besluit te maken. De beslissingsprocessen die hierboven beschreven zijn verlopen automatisch en onbewust: je hebt niet door dat je er langer over doet om te beslissen dat 2 groter is dan 1 dan dat 4 groter is dan 1, je weet alleen dat je de beslissing maakt. Welke processen bij die beslissing komen kijken is ons als helemaal onbekend.

De meeste beslissingen en redeneerprocessen zijn echter wel bewust, en langzamer. Beslissen en probleemoplossen behoren tot deze bewuste processen, en zijn doorgaans moeilijk uit elkaar te houden. Overeenkomsten tussen de twee hebben te maken met onbekendheid en onzekerheid. Onderzoek naar beslissen en probleemoplossen gebruikt onderwerpen en oefeningen waar de proefpersoon doorgaans weinig van begrijpt en onbekend mee is. Daarnaast krijgt men vaak opdrachten en problemen voorgelegd waarvan niet meteen duidelijk is wat het goede antwoord is, en of het gegeven antwoord een goede of foute benadering van het probleem is. Beslissingen nemen en probleemoplossen zijn dus niet duidelijk in te delen en vertonen veel overeenkomsten. Mensen gebruiken bij beide verschillende soorten strategieën, foute en goede.

Tversky & Kahneman hebben veel en invloedrijk onderzoek gedaan naar deze vormen van beslissingen nemen. Het is belangrijk eerst twee belangrijke benaderingen van probleemoplossen uit te leggen: algoritmes en heuristiek.

Een algoritme is een vaste procedure of set regels om een probleem op te lossen, waarmee gegarandeerd de goede oplossing wordt gevonden indien het op de juiste manier wordt toegepast. Denk bijvoorbeeld aan staartdelingen of cijferen bij rekenen.

Een heuristische benadering is een meer informele manier om een probleem te benaderen, wat in sommige gevallen het goede antwoord oplevert maar niet altijd.

Wanneer je een set van bijvoorbeeld acht losse letters voorgelegd krijgt en je moet er achter komen hoeveel vier- of vijfletterwoorden je hiermee kunt vormen, kun je dit op twee manier doen. De algoritmische manier zou zijn om alle mogelijke combinaties op te schrijven en deze te vergelijken met een woordenboek om te zien welke combinaties geldige woorden zijn. Dit zou vrij lang duren, aangezien er 8400 verschillende vier- of vijflettercombinaties zijn te maken van acht letters. Deze manier zou alleen met behulp van een computer mogelijk zijn. Een voorbeeld van een heuristische benadering is om woorden te bedenken die met een bepaalde medeklinker of combinatie van medeklinkers beginnen. Hierbij zie je echter veel over het hoofd, bijvoorbeeld zeldzame lettercombinaties, of de mogelijkheid om meervoudsvormen te maken. De heuristische benadering levert dus wel een aantal goede antwoorden op, maar niet de complete set mogelijke antwoorden. In deze opdracht is het trouwens makkelijker om de letters op papiertjes te schrijven, zodat je je werkgeheugen niet hoeft te belasten met mentale manipulaties en verschuivingen van letters; ook een vorm van heuristiek.

Veel van het onderzoek van Tversky en Kahneman betreft het redeneren (bijvoorbeeld het voorspellen van de kans) over onzekere situaties en de bias die daar vaak bij komt kijken. Vaak kunnen deze problemen ook met algoritmes opgelost worden (bijvoorbeeld bij het berekenen van kansen), maar mensen passen die vaak niet of niet correct toe, ook al hebben ze ze wel ooit geleerd. Er is bijvoorbeeld veel onderzoek gedaan naar het inschatten van kansen in situaties waar de waarschijnlijkheid niet met zekerheid bepaald kan worden, of in hypothetische situaties (wat zou er gebeurd zijn als de Spanjaarden nooit uit Nederland waren verdreven?).

Tversky en Kahneman beschrijven verschillende soorten heuristiek, welke hieronder uiteengezet zullen worden.

Representatieve heuristiek

De meeste mensen zullen denken dat de kans op de combinatie KKKMMM minder groot is dan de kans op KMMKMK wanneer zes keer een munt wordt opgegooid. Omdat we weten dat een sequentie muntworpen over het algemeen een willekeurig patroon van kop en munt zal geven, zien we de KMMKMK uitkomst als meer representatief voor een sequentie muntworpen. In werkelijkheid is de kans op KKKMMM even groot als de kans op KMMKMK; beide zijn één uit 64 mogelijke uitkomsten. Representatieve heuristiek betekent dat de ingeschatte kans van een gebeurtenis bepaald wordt door óf in hoeverre de gebeurtenis lijkt op de populatie gebeurtenissen waar hij uit komt, óf in hoeverre de gebeurtenis lijkt op het proces dat de gebeurtenis bewerkstelligd heeft.

Dit kan bijvoorbeeld betekenen dat een serie muntworpen die er random uitziet waarschijnlijker lijkt dan een meer geordende serie, omdat de eerste meer lijkt op wat we weten over series muntworpen, namelijk dat ze random zijn. Ook is de kans op drie keer kop en drie keer munt in een serie van zes worpen (op lange termijn) groter dan zes keer kop of munt, dus zullen we sequenties met drie kop en drie munt ook als waarschijnlijker inschatten.

Bij het inschatten van kansen houden mensen vaak te weinig rekening met steekproefgrootte. Een voorbeeld: er zijn twee ziekenhuizen, een waar dagelijks 15 kinderen worden geboren en een waar dagelijks 45 kinderen worden geboren. Gemiddeld genomen is de verhouding jongens/meisjes die geboren worden 50/50, hoewel de percentages natuurlijk per dag kunnen verschillen. Een aantal dagen per jaar kwam het voor dat 60% of meer van de babies jongetjes waren. Welk ziekenhuis heeft waarschijnlijk meer van dat soort dagen?

Veel mensen denken intuitief dat de kans op zulke dagen even groot is voor beide ziekenhuizen, omdat beide aan dezelfde statistische willekeurigheid gebonden zijn. Wat men echter over het hoofd ziet, is dat de kans op uitschieters groter is naarmate de steekproef kleiner wordt. Berekend met een steekproef van 15 babies is 60% een minder extreme uitschieter dan met een steekproef van 45 babies (Vergelijk: de kans op alle keren keer kop is voor twee worpen 0.25 en voor 6 worpen 0.0156). Deze veelvoorkomende bias noemt men ongevoeligheid voor steekproefgrootte.

Mensen gebruiken vaak informatie bij het inschatten van kansen die op zich irrelevant is maar die te maken heeft met een bepaald stereotype. Men krijgt bijvoorbeeld het volgende voorgelegd: een man genaamd Henk wordt uit een kamer met 100 mensen gehaald, waarvan er er 30 dierenarts en 70 wiskundige zijn. Hoe groot is de kans dat Henk dierenarts is?

Zonder aanvullende informatie kiezen alle proefpersonen het juiste antwoord: 30% of 0.3. Wanneer echter een beschrijving van Henk gegeven wordt die overeenkomt met het stereotype beeld dat men heeft bij een wiskundige (bijvoorbeeld verlegen, niet-atletisch, brildragend), wordt de kans dat Henk een dierenarts is ineens anders (lager) ingeschat. Zelfs wanneer neutrale informatie over Henk gegeven wordt (behorend bij noch het dierenarts-, noch het wiskundige stereotype) blijkt dit het antwoord te beïnvloeden; mensen gaan er kennelijk van uit dat extra gegeven informatie wel relevant zal zijn voor het antwoord, zelfs wanneer er dus geen duidelijke stereotypering is.

Stereotypering heeft met overtuigingen te maken. Deze spelen vaak een rol bij foute beoordelingen. Informatie die overeenkomt met onze overtuigingen wordt zwaar beoordeeld, in tegenstelling tot inconsistente informatie, welke meestal genegeerd wordt (denk aan de confirmation bias). Een voorbeeld hiervan kwam naar voren in onderzoek van Kim en Ahn (2002). Hieruit bleek dat diagnoses van psychologen vaak beïnvloed werden door de eigen overtuigingen omtrent oorzaken en gevolgen van stoornissen. Ziet de ene psycholoog symptoom A als centrale oorzaak voor stoornis B, dan wordt de patiënt gediagnosticeerd met stoornis B. Een andere psycholoog beoordeelt dit symptoom wellicht als irrelevant en baseert zijn diagnose op een ander symptoom.

Bovenstaande vormen van heuristiek leiden, zoals we zagen, in de voorbeelden tot foute antwoorden. De reden dat ze toch door mensen gebruikt worden is dat ze ook tot goede antwoorden kunnen leiden. Het gaat mis wanneer ze te vaak of verkeerd gebruikt worden, of wanneer ze gebruikt worden in de plaats van een ingewikkelder maar geschikter methode (bijvoorbeeld een algoritmische). Bij het oplossen van rekensommetjes is gokken (heuristiek) niet de aangewezen methode; de sommen volgens de rekenregels maken wel. Van stereotypes weten we dat ze niet altijd gelden en dat er altijd uitzonderingen zijn, maar ze kunnen ons wel helpen bij het globaal inschatten van persoonskenmerken.

Beschikbaarheids heuristiek (availability heuristic)

Op vragen als ”hoeveel wiskundigen zijn vrouwen” of “hoeveel procent van kinderen draagt een beugel” zijn de goede antwoorden technisch gezien wel te vinden, maar in de praktijk moeten we voor dit soort vragen een schatting maken, gebaseerd op wat we weten over de wereld om ons heen. We zoeken dus in ons geheugen naar voorbeelden en relevante informatie. Hoe makkelijker we een voorbeeld in ons geheugen kunnen vinden, oftewel hoe beter beschikbaar de informatie is, hoe groter we de waarschijnlijkheid van dat voorbeeld inschatten. Dit noemt met beschikbaarheids (“availability”) heuristiek. Een vorm hiervan is het gegeven dat we van gebeurtenissen de frequentie dat ze voorkomen opslaan, en dat deze frequentie een rol speelt bij de retrieval. Iets dat we maar een paar keer hebben meegemaakt, is moeilijker uit het geheugen naar boven te halen en zal dus ingeschat worden als een gebeurtenis waarvan de kans dat hij voorkomt, laag is.

Over het algemeen blijkt dit een vrij goede strategie om waarschijnlijkheid in te schatten, maar ze is wel gevoelig voor vervormingen van het geheugen: wanneer er onnauwkeurige informatie in het geheugen staat, heeft dit natuurlijk invloed op het inschattingsvermogen. Andere factoren dan frequentie kunnen de toegankelijkheid van herinneringen vergroten, zoals emotionele betrokkenheid of voorkeuren. Een aantal voorbeelden van factoren die de beschikbaarheid van informatie in het geheugen beïnvloeden:

- Algemene kennis

Kennis over de wereld om je heen beïnvloedt je redeneringen. Bij het inschatten van hoeveelheden of verhoudingen put je uit eigen ervaringen en algemene kennis. Wanneer je bijvoorbeeld moet inschatten hoeveel gezinnen meer dan één auto hebben houd je rekening met economische en praktische factoren, zoals inkomen, of beide ouders werken, aantal kinderen etc.

- Bekendheid bias (familiarity bias)

De bekendheid bias maakt dat je gebeurtenissen als meer frequent of belangrijker inschat omdat ze bekender zijn. Een voorbeeld is een onderzoek waar proefpersonen rijtjes met mannen- en vrouwennamen lazen en vervolgens zoveel mogelijk namen moesten herhalen. Ook werd hen gevraagd of er meer mannen- of vrouwennamen in de lijst stonden. Wanneer voor één van de sekses namen van beroemdheden gebruikt werden, werden de namen beter onthouden én werd de frequentie van namen van die sekse hoger ingeschat (onterecht).

- Opvallendheid (salience or vividness)

De retrieval van opvallende gebeurtenissen is makkelijker dan die van alledaagse gebeurtenissen. Een herkenbaar voorbeeld is het feit dat mensen reizen per vliegtuig als gevaarlijker inschatten dan reizen per auto. Hoewel de statistiek uitwijst dat reizen per auto een groter risico met zich mee brengt, is de impact van een neerstortend vliegtuig, qua media aandacht, aantal doden en ravage, doorgaans vele malen groter dan die van auto ongelukken. Dit beïnvloedt onze inschatting van het gevaar: mensen zijn nerveuzer wanneer ze in een vliegtuig stappen dan wanneer ze in een auto stappen.

Simulatie heuristiek, is een variatie op beschikbaarheidsheuristiek.

Wanneer ons gevraagd wordt om voorspellingen over de toekomst te doen of om ons een ander resultaat van een bepaalde situatie voor te stellen, heet dit simulatie heuristiek. De term simulatie komt van computersimulatie, waarin vanuit een bepaald startpunt of startvariabele verder gerekend wordt. Wanneer een bepaalde hypothetische situatie of uitkomst makkelijk voor te stellen is, is deze dus makkelijk te “retrieven” of construeren uit het geheugen. Moeilijk te construeren situaties zullen als minder plausibel gezien worden of helemaal niet worden bedacht.

Zie het volgende scenario: meneer A en B rijden samen met de taxi naar het vliegveld, waar ze hun vluchten moeten halen, die toevallig om dezelfde tijd vertrekken. De taxi zit vast in het verkeer, waardoor ze een half uur na de vertrektijd van hun vluchten pas op het vliegveld zijn. Meneer A hoort dat zijn vlucht op tijd vertrokken is, meneer B hoort dat zijn vlucht vertraagd was maar net weg is: was hij vijf minuten eerder op het vliegveld geweest dan had hij hem nog gehaald. Wie is meer teleurgesteld, meneer A of B? Hoewel beide mannen in dezelfde situatie zitten en hun vlucht gemist hebben, kiezen de meeste mensen meneer B: hij kwam nog dichter in de buurt van het halen van zijn vlucht. Omdat het makkelijker is je een ander verloop voor te stellen waarbij de taxi vijf minuten eerder was dan een waarbij de taxi een half uur eerder was, heb je het gevoel dat meneer B meer teleurgesteld is.

Een andere soort simulatie heuristiek is ongedaan maken (“undoing”), ook wel counterfactual reasoning genoemd; je maakt dan een wat als... statement die tegen de feiten ingaat. Wanneer iemand bijvoorbeeld een auto ongeluk krijgt, denkt men vaak dingen als “wat als hij iets langzamer had gereden...” of “wat als hij die dag niet eerst langs de supermarkt was gegaan”. De meeste mensen maken gebruik van de zogenaamde Downhill veranderingen: het verwijderen een onverwacht of abnormale factor uit een verhaal (“als hij die dag niet een andere route dan normaal had genomen, was er niets gebeurd”).

De reden dat mensen voornamelijk downhill veranderingen verzinnen wanneer ze de uitkomst van een situatie moeten veranderen, is omdat het makkelijker (mentaal beschikbaarder) is om normal(iserend)e dingen te verzinnen. Het is moeilijker om vergezochte (uphill) veranderingen te bedenken, en aan minuscule (horizontale) veranderingen denkt men vaak gewoonweg niet. Mensen richten zich voor de oorzaak van een gebeurtenis vaak op hetgeen de focus is van het verhaal, terwijl ze ook bijzaken zouden kunnen veranderen. Wanneer in het verhaal meer informatie over de bijzaken wordt gegeven, worden hier ook meer veranderingen over bedacht. Opvallend was dat men zelden de acties van anderen aanpast, waardoor onbewust het slachtoffer de verantwoordelijkheid krijgt.

De simulatie heuristiek is erg gevoelig voor de terugblik (“hindsight”) bias: omdat je de uitkomst al weet, lijken de gebeurtenissen die eraan vooraf gingen allemaal erg logisch. Andere mogelijke voorafgaande scenario’s lijken minder plausibel, omdat we een connectie hebben gelegd met de daadwerkelijke gebeurtenissen en de uitkomst. Dit effect vindt ook plaats in het geheugen: het blijkt dat we de herinnering over onze mening of overtuiging aanpassen aan ons daadwerkelijke gedrag (nadat je iemand hebt geslagen denken: ik vond altijd al dat geweld in bepaalde situaties best moet kunnen).

In het dagelijks leven gebruiken we simulatie heuristiek regelmatig om beslissingen te nemen: “als ik nu koffie ga drinken is dat gezellig, maar dan krijg ik mijn paper nooit voor vijf uur af”, of “als ik gisteren niet teveel had gedronken, was dat sollicitatiegesprek vast beter gegaan”. Een addertje onder het gras is dat is gebleken dat mensen die zich veel op positieve uitkomsten richten, zekerder zijn dat een positieve uitkomst ook daadwerkelijk zal plaatsvinden, en zich minder goed negatieve uitkomsten kunnen voorstellen. Dit klinkt gezellig optimistisch, maar leidt soms tot onrealistische beoordelingen van een situatie (“Als ik maar water tussendoor drink kan ik best een paar biertjes drinken en met de auto naar huis rijden”).

Er is zeer bekend onderzoek gedaan door Tversky en Kahneman (1983), genaamd ´het Linda-probleem´. Proefpersonen moesten na beperkte informatie te hebben gelezen over Linda (getrouwd, als student activiste) aangeven hoe groot de kans was dat bepaalde uitspraken op Linda van toepassing waren (bijvoorbeeld: Linda is conducteur, Linda is een danseres en een actieve activiste, Linda is danseres). [Zie voor de volledige taak pagina 451 in Ashcraft´s Cognition (2010).] Opvallend was dat de proefpersonen de kans dat ze een lerares én een actief activiste was hoger inschatten dat de kans dat ze enkel een lerares of enkel een activiste is. Dit wordt de ´conjunction fallacy´ genoemd: de foute overtuiging dat het samen voorkomen van twee kenmerken vaker voorkomt dan slechts één van deze kenmerken. Een andere verklaring hiervoor is dat men persoonlijkheidskenmerken als stabiel beschouwd, Linda was als studente activiste, dus zal ze dit nog steeds zijn. En men zou zich af kunnen vragen waarom de informatie dat ze als student activiste was ander vermeld wordt.

Volgens Grigerenzer (1996) is het fout om aan te nemen dat het goede antwoord op elk beslissingsprobleem het antwoord is vanuit de klassieke kanstheorie. Hij denkt dat het belangrijk is om te bekijken hoe goed de heuristeiken die mensen gebruiken zijn in het bepalen van hun gedrag. Naar zijn mening gebruiken mensen heuristieken niet alleen in verband met geheugenbeperkingen en dergelijke, maar ook omdat deze succesvol waren in het bepalen van adaptief gedrag: ze werken kennelijk. Deze benadering wordt adaptief denken genoemd. Aantrekkelijk aan deze benadering is ten eerste dat deze positief is, het zoekt naar het nut van heuristieken. Ten tweede zijn ´fast frugal´ heuristieken simpel en gebaseerd op ´one-reason decision making´. Tot slot is deze benadering toegankelijker voor input van cognitieve principes dan de meer traditionele benadering.

Satisfying heuristic

Nog een heuristiek van de benadering van het adaptief denken is de ‘bevredigende heuristiek,’

de satisfying heuristic. Dit door Simon bedachte principe stelt dat mensen vaak genoegen nemen met een bevredigende manier om een beslissing te maken door de eerste oplossing die de aan de belangrijkste criteria voldoet te kiezen. Stel dat je in een onbekende stad iets gaat eten. Je kunt dan de hele stad afzoeken naar een leuk restaurant, of kiezen voor het eerste restaurant dat je tegenkomt dat voldoet aan je verwachtingen (‘niet te duur’, ‘Italiaanse keuken’).

Herkenningsheuristiek

Een voorbeeld van een “one-reason” heuristiek is de herkenningsheuristiek (recognition heuristic). Bij deze heuristiek baseer je je beslissing op het feit of je hetgeen wat je moet beoordelen op herkenning. Het alternatief dat het best herkend wordt, wordt gekozen. Bijvoorbeeld: Wanneer men moet kiezen welke van de plaatst het grootst is, Westerwolde of Volendam, zal men op basis van herkenning van Volendam, voor Volendam kiezen.

‘Take the best’ heuristic

Een toevoeging van herkenningsheuristiek is de ”neem de beste” heuristiek, hierbij kies je tussen alternatieven op basis van de eerst bruikbare informatie over de alternatieven. Hierbij begint met met herkenningsheuristiek, maar blijken beide antwoorden in dezelfde mate herkend te worden. Vervolgens wordt in het geheugen gezocht naar een bepaald kenmerk (cue), dat relevant kan zijn voor het maken van een beslissing. Wanneer bijvoorbeeld gevraagd wordt welke stad de meeste inwoners heeft, Alkmaar of Den Bosch, kan je op zoek gaan naar een cue die je kan helpen een beslissing te nemen. Misschien bedenk je je dat het hebben van een goed eredivisie voetbalteam te maken heeft met de grootte van een stad. Op basis hiervan zou je kunnen kiezen voor Alkmaar.

Het belangrijkste verschil tussen de traditionele benadering en die van het adaptief denken is dat de traditionele benadering zich richt op hoe de menselijke heuristieken verschillen van de logica en dat de ´adaptief denken´ benadering zich richt op beperkingen van mensen (in de zin van tijd, geheugen enzovoorts) en onderzoekt hoe goed ons heuristiek redeneren is ondanks deze beperkingen.

Beperkingen in het redeneren

In veel situaties komt het voor dat onze kennis over situaties of zaken inaccuraat is. Als je bijvoorbeeld de oppervlakte van een driehoek moet geven en je weet de juiste formule niet meer, maak je vaak maar een schatting. Ook denken mensen bijvoorbeeld onterecht dat de lift sneller komt als je vaker op de knop drukt (zoals bij een deurbel wel het geval is). Deze incomplete kennis is het interessantst voor onderzoekers: wat doen mensen als ze het antwoord niet weten, en hoe komen ze vervolgens toch tot een antwoord?

McCloskey deed interessant en vermakelijk onderzoek naar de ideeën die mensen over de fysieke wereld en de principes van beweging hebben (zie figuur 11.2). Het gekke is dat mensen opdrachten als “teken het pad van een bal die gegooid wordt” fout deden, terwijl ze, zelfs zonder basis natuurkundige kennis te hebben, in het dagelijks leven genoeg voorbeelden kunnen zien van dergelijke bewegingen. Dit is een voorbeeld van naive physics, een foutieve opvatting van de principes van natuurwetten, en dan met name de principes van beweging. Ons cognitieve model wijkt dus kennelijk af van het perceptie-motor model. Een ander opvallend fenomeen is dat de fouten die mensen maken, zoals het toeschrijven van een soort bewegingskracht (impetus) van voorwerpen, overeenkomen met het beeld dat mensen in de 13e en 14e eeuw hadden voordat Newton’s natuurkundige wetten gemeengoed werden. Er is maar weinig onderzoek gedaan naar de manier waarop we dit soort vraagstukken oplossen en waarom we ze zo vaak fout doen. Optische illusies, onoplettendheid, het moeilijk kunnen toepassen van kennis uit de wereld om ons heen en de moeilijkheidsgraad van de problemen zouden hierin een rol kunnen spelen. Door training, bijvoorbeeld door natuurkundelessen te volgen, kunnen we onze prestatie wel verbeteren.

Beperkte verwerkingsmogelijkheden

Het feit dat we een beperkte werkgeheugen capaciteit hebben heeft ook invloed op beslissingsprocessen en probleemoplossen. Cherniak (1984) noemt de prototypicaliteit heuristiek, waarbij voorbeelden worden bedacht om de oplossing van een probleem te vinden in plaats van de correcte logische strategie te volgen. Vaak wordt door hetzij beperkte werkgeheugencapaciteit, hetzij door tijdnood, hetzij door luiheid gekozen voor de snelle weg: een schatting maken of een globaal antwoord zoeken in plaats van de algoritmische procedures volgen. We zien dit bijvoorbeeld bij uitgebreide multiplicatiesommen: mensen maken liever een schatting dan dat ze uit hun hoofd gaan berekenen hoeveel 342 x 34 is. Helaas blijken deze schattingen niet altijd even nauwkeurig.

Waltz en zijn collega’s (1999) deden onderzoek naar werkgeheugenbelasting in redeneringstaken bij gezonde proefpersonen en patiënten met ofwel temporale dan wel prefrontale hersenbeschadiging. De taken bestonden uit het in de goede volgorde zetten van uitspraken als “Jan is langer dan Gert” en het maken van items uit de Raven Progressive Matrices test waarbij uit groepen van 4 symbolen één missend symbool moest worden gekozen uit zes antwoordmogelijkheden. Beide problemen werden op twee niveaus van complexiteit gepresenteerd. Op complexiteit niveau 1 (kleine belasting van het werkgeheugen) presteerden alle groepen vergelijkbaar, maar op niveau 2 presteerden prefrontale patiënten veel slechter dan de andere twee groepen. Dit laat wederom zien dat de prefrontale cortex erg belangrijk is bij het tegelijk opslaan en manipuleren van verschillende stukken informatie en om het geheel te integreren, een vaardigheid die essentieel is bij het oplossen van problemen.

Back to top

Deel 12 Probleemoplossend vermogen

In dit hoofdstuk komt het langzame, doelbewuste cognitieve proces aan de orde dat probleem oplossen heet. Aan bod komen alle stappen van het proces: het identificeren van het probleem, de gebruikte strategieën en gemaakte stappen, en het beslissingsproces of het probleem daadwerkelijk en goed is opgelost. Het oplossen van complexe problemen wordt doorgaans onderzocht door simpele mechanismen onder de loep te nemen, in de veronderstelling dat deze basisprincipes gegeneraliseerd worden naar zowel alledaagse als complexe onderzoekssituaties.

Een probleem bij het onderzoeken van probleemoplossen was dat het niet met simpele RT, nauwkeurigheid of identificatietaken gemeten kan worden; het oplossen van een probleem of opdracht kan soms minuten of tientallen minuten duren. De methode die vaak wordt toegepast is het verbale protocol, oftewel de proefpersoon denkt hardop terwijl hij het probleem oplost en de onderzoekers schrijven alles op en analyseren het. De vergelijking met de introspectiemethode is snel gemaakt en zorgde dus voor scepsis die, samen met praktische problemen rond experimental designs en het controleren van variabelen, de tak van onderzoek niet populairder maakten. De scheidingslijn tussen de informatieverwerkers en de probleemoplossers is nu echter grotendeels verdwenen, zeker nadat bleek dat beide takken waardevolle informatie konden uitwisselen zoals heuristiek en taalgerelateerde data.

Gestalt psychologie en probleemoplossen

Volgens de Gestalt psychologen hebben mensen de neiging om objecten of concepten als een geheel waar te nemen, in plaats van losse onderdelen. Daarbij vullen ze vaak (meestal onbewust) ontbrekende of onvolledige informatie in om het geheel te laten kloppen.

Kohler deed eind jaren 40 onderzoek met apen en concludeerden dat apen niet losse elementen zien, maar eerder de relaties tussen die elementen, iets wat hij als een teken van intelligentie zag. Als apen met een probleem geconfronteerd werden, hadden ze dikwijls na een tijdje een “aha” moment, waarin ze ineens snapte hoe het probleem opgelost moest worden. Kohlen benadrukte het belang van plotseling inzicht in probleemoplossen, dit noemt men inzichtleren.

Duncker en Luchins beschreven op basis van hun onderzoek dat rigiditeit probleemoplossen in de weg staat terwijl creativiteit juist een pre is. Een onhandigheid die vaak voorkomt bij het oplossen van problemen is functionele rigiditeit (“ functional fixedness”). Dit is de neiging om objecten en concepten alleen in hun gewoonlijke omgeving en op de normale manier te gebruiken. Een bekend voorbeeld is het probleem waarbij je een kaars aan de muur wil bevestigen. De objecten die tot je beschikking staan zijn een kaars, een doosje punaises en een kartonnetje lucifers. De oplossing is om het doosje met de punaises tegen de muur te prikken en het als platform voor de kaars te gebruiken. Omdat je een doosje doorgaans alleen gebruikt om iets in de doen, kom je niet zomaar op het idee om het als platform te gebruiken. Dit heeft te maken met de structuur van je semantisch geheugen: wanneer je aan een doosje denkt, zullen er alleen associaties opkomen met de gebruikelijke functies van een doosje.

Een andere handicap in probleemoplossen noemt men “negative set”; dit is de neiging een probleem op één bepaalde manier te benaderen, ook al is dit niet de aangewezen of juiste manier. Luchins demonstreerde dit met waterkanproblemen: je hebt drie kannen waar verschillende hoeveelheden water in passen, en je moet die kannen gebruiken om een bepaalde hoeveelheid water uit te meten. Bijvoorbeeld: in kan A passen 19 glazen, in kan B passen 127 glazen en in kan C passen 4 glazen. Meet de hoeveelheid van 100 glazen af.

Oplossing: schenk kan B vol, schenk daarvan zoveel over naar kan A tot die gevuld is en schenk vervolgens twee keer kan C vol: 127 – 19 – 2(4) = 100 = B – A – 2(C). Door proefpersonen rijtjes met waterkanproblemen voor te zetten waar steeds dezelfde strategie gebruikt kon worden, dus B – A – 2 (C), zagen proefpersonen bij problemen waar ook een eenvoudiger oplossing voor was, deze vaak over het hoofd (bijvoorbeeld A= 23, B = 49, C = 3, target is 20, waarbij je ook gewoon A – C kunt doen i.p.v. B – A – 2(C)). De proefpersonen hadden een negative set ontwikkeld doordat ze de problemen steeds op dezelfde manier oplosten, waardoor ze de andere, simpelere oplossing niet zagen. Zowel functional fixedness als negative set komen vaak voor in ons dagelijks leven, maar vaak zijn we ons er niet eens van bewust omdat we via een omweg ook wel een oplossing vinden.

Inzicht en analogie

Inzicht

Inzicht wordt wel gedefinieerd als een diep, bruikbaar begrip van iets, vooral bij moeilijke problemen. Vaak wordt inzicht vooral gekoppeld aan een “aha” reactie: een plotseling inzicht doordat je het probleem ineens van een andere kant bekijkt. Soms gebeurt dit met behulp van een analogie: een probleem lijkt op een probleem dat je eerder al eens opgelost hebt, dus de strategie van het eerdere probleem kan (in aangepaste versie) worden toegepast op het nieuwe probleem.

Metcalfe en Wiebe (1987) onderzochten hoe mensen typische inzicht-problemen oplosten en vonden twee interessante resultaten. Bij normale problemen waren mensen vrij goed in staat te voorspellen of ze het probleem konden oplossen, maar bij inzicht-problemen helemaal niet. Daarnaast blijkt het inzicht zich vrij onaangekondigd voor te doen. Een voorbeeld: bij algebrasommen werk je door een aantal vaste stappen en heb je het gevoel dat je steeds dichter bij het goede antwoord komt. Bij inzicht-problemen heb je dit gevoel niet: je weet niet of je denkstappen ergens toe leiden; pas op het moment dat je ineens het inzicht krijgt heb je het gevoel dat de oplossing in zicht is.

Het lijkt dus alsof inzicht ineens uit het niets verschijnt, maar op deze visie is wel kritiek. Sommigen vinden dat inzicht verklaard kan worden door het “overwinnen” van functionele rigiditeit en negatieve set of het nemen van een ander perspectief. Een andere benadering is dat inzicht het maken van een belangrijke inferentie is die nodig is om bij het goede antwoord te komen.

Analogieën

Een analogie is een relatie tussen twee vergelijkbare problemen, situaties of concepten. Een klassiek voorbeeld: slager staat tot vlees als bakker staat tot .... Je moet eerst de structuur of regel voor de eerste set achterhalen en deze moet je vervolgens projecteren op de tweede set om achter het juiste antwoord te komen. Analogieën kunnen worden toegepast op veel situaties en hebben in net zoveel situaties geleid tot het oplossen van moeilijke vraagstukken.

Nu volgt een voorbeeld van hoe een analogie kan helpen een probleem op te lossen. Als eerste het volgende probleem: een dictator heeft een sterk fort in het midden van zijn land. Diverse wegen leiden als spaken in een wiel naar het fort. Een generaal die de dictator uit het zadel wil werpen wil het fort innemen, maar weet dat hij alleen zal winnen als hij met zijn hele leger tegelijk het fort aanvalt. Hij weet echter dat de dictator langs alle wegen mijnen heeft gelegd, die afgaan zodra er een groep mensen van een bepaalde grootte langs loopt. Hoe moet hij het fort innemen? (Oplossing: zijn leger opdelen en in kleine groepjes via verschillende wegen naar het fort laten komen, waar uiteindelijk alle groepjes tegelijk aankomen zodat het fort kan worden aangevallen met het complete leger).

Vergelijk dit met het volgende probleem: een man heeft een kwaadaardige tumor die verwijderd moet worden wil de man blijven leven. Opereren blijkt onmogelijk, maar er is een soort straal die de tumor kan vernietigen. Probleem is echter dat om de tumor te vernietigen, de straal van een zodanige sterkte moet zijn dat het omliggende weefsel ook vernietigd zal worden. Hoe kan de tumor weggehaald worden zonder dat ander weefsel beschadigd wordt? (Oplossing: een aantal zwakkere, niet-schadelijke stralen op de tumor richten zodat het gecombineerde effect van die stralen op de plek van de tumor sterk genoeg is om die te vernietigen.)

De analogie met het eerste probleem bleek waardevol voor proefpersonen die het tweede probleem kregen voorgelegd: 76% begreep dat de oplossing van probleem 1 op probleem 2 toegepast kon worden (in vergelijking met 8% van de controlegroep die geen analoog probleem had opgelost). Proefpersonen die een zwakker analoge variant van probleem 1 hadden gelezen (het uitspreiden van een parade over de verschillende wegen in plaats van het aanvallen van het fort) hadden hier minder baat van. Het geven van de hint dat het ene probleem gebruikt kon worden voor het oplossen van het andere verhoogde het percentage dat een goede oplossing voor probleem 2 vond nog verder.

Bij het gebruiken van een analogie komen drie factoren kijken.

1) Overeenkomstigheid van de problemen: problemen of situaties moeten genoeg op elkaar lijken om vergelijking tussen de bron (source) en het doel (target) mogelijk te maken. Hierbij kunnen te oppervlakkige overeenkomsten trouwens interfereren met het oplossen.

2) Parallelle structuur herkennen: je moet in de target equivalenten vinden voor de elementen uit de bron. In het voorbeeld van het fort en de tumor zijn dit bijvoorbeeld:

aanvallen = straling

fort = tumor

kleine groepjes = zwakke stralen etc.

3) Doel van de analogie: het doel in het ene probleem moet overeenkomen met het doel in het andere probleem. Het verspreiden van een parade over meerdere wegen heeft niet hetzelfde doel (namelijk: vernietigen) als het verdelen van een straal in zwakkere stralen.

Neurocognitie in analogie en inzicht

Neurologisch onderzoek naar het vormen van analogieën bracht interessante resultaten voort. In een onderzoek waarbij proefpersonen moesten beslissen of een target-groep figuurtjes analoog was aan een bron-groep bleek uit een pet scan dat drie gebieden: de midden-frontale cortex, onderin de linker pariëtale cortex en de linker prefrontale cortex.

In een ander onderzoek bleek juist de rol van de rechterhemisfeer bij inzicht-problemen. Proefpersonen kregen drie woorden te zien (bijvoorbeeld pinda, schaaf, kop) en moesten een woord bedenken dat met alledrie te combineren was (in dit geval dus “kaas”). Na 15 seconden kregen ze een woord te zien dat ze hardop moesten voorlezen. Voor ongerelateerde woorden (“worst”) bleek het typische effect dat woorden die in de rechterkant van het gezichtsveld (dus linkerhemisfeer) gepresenteerd werden sneller herkend werden dan woorden die in de linkerkant van het gezichtsveld gepresenteerd werden. Wanneer het woord echter het targetwoord was, werd het niet alleen over het algemeen sneller herkend (door priming), maar bleek dit effect sterker als het woord in de linkerkant van het gezichtsveld gepresenteerd werd. Kortom: semantische priming was sterker in de rechterhemisfeer dan in de linker (vergelijk dit met de rol van de rechterhemisfeer in taalbegrip, zoals in hoofdstuk 10 werd beschreven).

Probleemoplossen: de basisprincipes

Een tekortkoming van de Gestalt-benadering in probleemoplossen is dat Gestaltpsychologen zich alleen op de oplossing richten en het nut niet zien van het in kleine stukjes ontleden van de strategie. Het ontleden van strategieën en processen geeft echter juist inzicht in hoe mensen problemen oplossen, bijvoorbeeld het gegeven dat we leren van onze fouten.

Een probleem kan grofweg gedefinieerd worden als het willen bereiken van doel waarbij niet meteen duidelijk is welke acties uitgevoerd moeten worden. Kenmerken van probleemoplossen zijn:

1) Doelgerichtheid: er is een einddoel wat bereikt moet worden.

2) Sequentie van handelingen: er vinden meerdere handelingen plaats. Domweg iets uit het geheugen halen is geen probleemoplossen, een aantal (denk)stappen maken (zoals in een algebrasom) wel.

3) Cognitieve handelingen: elk probleem bestaat uit een serie cognitieve handelingen of operaties (bijvoorbeeld optellen), die vaak een gedragsmatig component hebben (zoals het opschrijven van een tussenstap in algebra).

4) Verdeling in subdoelen: elke stap in de sequentie van operaties heeft een doel op zich en is een subdoel in het overkoepelende doel. Subdoelen hebben ook weer hun eigen subdoelen, en zo kun je ieder probleem weergeven als een hiërarchische structuur.

Overige termen in probleemoplossen:

- Het probleemgebied beslaat kort gezegd de verschillende fasen (beginpunt, oplossingsfase en doel) van een probleem. Ook de kennis die je gebruikt of zou kunnen gebruiken en eventuele externe hulpmiddelen maken deel uit van het probleemgebied. Je zou je een probleem kunnen voorstellen als een vertakkende structuur, met een beginpunt van waaruit verschillende subdoelen vertakken. Door alle subdoel-takken langs te gaan en te bekijken welke je tot de oplossing brengt en welke tot een blokkade leiden kun je het probleem oplossen, hoewel dit wel een tijdrovende strategie is. Vaak heb je bepaalde informatie of kennis waardoor je bepaalde mogelijkheden al kunt elimineren, wat je zoektocht vergemakkelijkt.

- Operators zijn de toegestane (binnen de regels van het betreffende probleem) handelingen die kunnen worden uitgevoerd bij het probleemoplossen. Transformationele operators (gebruikt in transformationele problemen zoals algebra) brengen een verandering aan die het probleem een stap dichter bij het doel brengt (zoals 2x - 9 = 6 – 3x transformeren naar 5x - 9 = 6). De regels van het probleem limiteren vaak het aantal mogelijke operators. De regels van algebra bijvoorbeeld staan niet toe dat je 3x aan de ene kant van de vergelijking optelt zonder dat ook aan de andere kant te doen.

- Het doel is het gewenste eindresultaat of de oplossing. Vooral in recreatieve problemen (raadsels) wordt de beginstatus en het einddoel doorgaans duidelijk vermeld: dit zijn goedgedefinieerde (“well-defined”) problemen. Sommige problemen zijn slecht gedefinieerd (“ill-defined”): de beginstatus en/of het doel worden niet of vaag vermeld (zoals: hoe kun je je ervan verzekeren dat je een 10 voor je tentamen haalt?).

Elke letter staat voor een bepaald cijfer van 0 t/m 9, elk cijfer wordt één keer gebruikt. Een dergelijk probleem heeft een duidelijke beginstatus en een duidelijk einddoel, en heeft duidelijke regels, namelijk de gewone rekenregels. De stappen die je zet om dit probleem op te lossen zijn typische voorbeelden van operaties die je steeds iets dichter bij de eindoplossing brengen. Bijvoorbeeld: omdat je weet dat D = 5, is T dus 0: 5 + 5 = 10, de 1 zet je boven de L volgens de regels van het cijferen. O + E = O, dus E moet wel 9 zijn en N + R moeten opgeteld groter zijn dan 10, zodat de 1 boven de O komt: O + 9 + 1 = O, en er ook een 1 boven de D aan het begin van DONALD komt, enz enz.

Dit proces noemt Greeno (1978) een “constructive search”: niet domweg cijfers uitproberen en kijken of het klopt, maar conclusies trekken op basis van de dingen die je wel weet en die toepassen op de rest van het probleem. Bij het maken van anagrammen zou een constructive search inhouden dat je bepaalde spellingspatronen gebruikt om mogelijke woorden te maken, in plaats van alle mogelijke lettercombinaties te maken en te vergelijken met een woordenboek.

Bij deze en andere soorten problemen zijn hulpmiddelen om bij te houden welke transformaties je al gedaan hebt en welke informatie dat opleverde handig of zelfs onontbeerlijk.

“Means-end” analyse

Naast het gebruik van analogieën is “means-end” (middelen-doel) analyse de bekendste vorm van heuristiek in probleemoplossen. Bij means-end analyse bepaal je steeds het verschil tussen je huidige positie en het gewenste doel of subdoel in het probleem, en selecteer je een operatie die dat verschil verkleint. Samengevat in 5 stappen:

1) Selecteer een doel of subdoel.

2) Vind het verschil tussen de huidige status en de gewenste (sub) eindstatus.

3) Vind een operatie die dit verschil reduceert. Dit kan ook het stellen van een nieuw subdoel zijn.

4) Pas de operatie toe.

5) Herhaal stap 2-4 net zolang tot alle subdoelen en het einddoel zijn bereikt.

Twee bekende voorbeelden voor problemen waarmee means-end analyse gedemonstreerd kan worden zijn het Tower of Hanoi probleem en het kannibalen en missionarissen probleem. In het Tower of Hanoi probleem staan drie schijven van verschillende groottes op elkaar gestapeld om een stokje (zie figuur 12.1) . Ernaast zijn nog twee stokjes waar de schijven omheen geschoven kunnen worden en het doel is om de stapel ringen naar het derde stokje te verplaatsen. De stokjes worden “source-, stack- en destination peg” (bron-, stapel- en bestemmingsstokje) genoemd Hierbij mag steeds maar één schijf tegelijk verplaatst worden en mag een schijf niet op een kleinere schijf geplaatst worden. Dit probleem kan niet in één keer opgelost worden, dus moet je subdoelen stellen, bijvoorbeeld: schijf C leeg krijgen. Hiervoor moet subdoel “B eraf krijgen” bereikt worden, waardoor betekent dat eerst nog een subdoel, A van B afkrijgen, bereikt moet worden. De operatie die je gebruikt om A van B af te krijgen is het verplaatsen van schijf A naar het derde stokje. Daarna kan B naar het tweede stokje verplaatst worden en is schijf C vrij. Daarna maak je een nieuw subdoel, bijvoorbeeld schijf C op het derde stokje krijgen, en begin je weer van voren af aan.

Een uitbreiding van dit probleem is het verplaatsen van vier schijven. Wanneer je dit probleem oplost, kun je gebruik maken van de strategie die je bij drie schijven hebt gebruikt. Vier schijven verplaatsen is eigenlijk een stapel van drie verplaatsen om de vierde schijf vrij te maken en die om het derde stokje te leggen. Vervolgens verplaats je weer een stapel van drie om ze bovenop de vierde schijf te krijgen.

Het kannibalen en missionarissen probleem is vergelijkbaar: je hebt drie kannibalen en drie missionarissen die je naar de overkant van een rivier wil verplaatsen met een boot waar maar twee mensen tegelijk in kunnen. Om de veiligheid van de missionarissen te garanderen mogen er op geen enkele locatie tijdens het uitvoeren van de taak meer kannibalen dan missionarissen zijn. Welke stappen maak je om alle zes aan de overkant te krijgen?

General problem solver

Newell, Shaw en Simon (1958) maakten een computersimulatie van menselijk probleemoplossen, de general problem solver (GPS). De GPS kon gebruikt worden voor verschillende soorten problemen waar means-end analyse op van toepassing was, en kon problemen zoals de Tower of Hanoi en kannibalen-missionarissen oplossen.

Verbeteren van je probleemoplossend vermogen

Nu volgen tien manieren om je probleemoplossend vermogen te verbeteren:

1) Vergroot je domeinkennis. Je kennis over het domein of onderwerp waar het probleem over gaat beïnvloedt je effectiviteit in het oplossen van het probleem. Uitgebreide kennis van een domein is expertise. Professionele schakers bijvoorbeeld hoeven maar een blik op een schaakopstelling te werpen (mits deze legaal is binnen de regels van het schaken) om hem te kunnen onthouden.

2) Automatiseer stappen in de methode voor het oplossen van het probleem. Een zwaarbelast werkgeheugen bemoeilijkt het probleemoplossen. Door bepaalde stappen te automatiseren (bijvoorbeeld het verplaatsen van drie schijven in het Tower of Hanoi probleem) verlicht je de last van het werkgeheugen en verbetert je probleemoplossend vermogen.

3) Volg een systematisch plan zodat je kunt bijhouden wat je al gedaan hebt en zodat je het doel niet uit het oog verliest.

4) Maak inferenties op basis van de uitgangspunten, voorwaarden en formulering van het probleem. Op deze manier elimineer je nutteloze redeneringen en het helpt je misleidende representaties van een probleem te voorkomen: door het probleem van een andere kant te bekijken of in andere woorden te beschrijven kun je de juiste benadering vinden. Pas echter op dat je geen foute inferenties maakt die je de verkeerde kant opsturen of je beperken.

5) Stel subdoelen, zoals in de means-end analyse beschreven werd. Wanneer een einddoel niet helemaal duidelijk is, is het vooral nuttig om subdoelen te stellen. Hierbij gebruik je een “satisficing” heuristiek: het vinden van een oplossing voor een subdoel die goed genoeg is maar niet per se de beste oplossing. Het bereiken van een subdoel kan je helpen bepalen hoe je einddoel eruit moet zien en of je strategie nog aangepast moet worden.

6) Achteruit werken is soms nodig om de juiste weg naar het goede antwoord te kunnen bepalen. Dit is bijvoorbeeld vaak ook mogelijk in algebrasommen.

7) Zoek naar tegenstrijdigheden in problemen die vragen of iets mogelijk is. In de vraag: is er een mogelijke oplossing voor de som x2 + 1 = 0, weet je dat x2 = -1 tegenstrijdig is aan de algebraïsche regel dat een gekwadrateerd getal altijd positief is.

8) Zoek overeenkomsten tussen problemen. Problemen waar je de oplossing al voor hebt gevonden kunnen je helpen nieuwe, vergelijkbare problemen op te lossen, zoals we in zagen bij het gebruik van analogieën.

9) Zoek andere manieren om het probleem te benaderen, bijvoorbeeld door het te visualiseren, door het in cijfers te representeren, door kladpapier te gebruiken (bijvoorbeeld letters op losse stukjes papier schrijven bij het maken van anagrammen) of door het fysiek “na te spelen”, bijvoorbeeld met stapels muntjes in het Tower of Hanoi probleem. Bij deze laatste strategie hoort een interessant voorbeeld.

Aan H.M., de patiënt beschreven in hoofdstuk 6 die lijdt aan anterograde amnesie, is ook het Tower of Hanoi probleem voorgelegd. H.M. leerde dit probleem steeds beter uit te voeren volgens dezelfde leercurve als gezonde mensen, hoewel hij zich nooit kon herinneren de taak eerder uitgevoerd te hebben. Dit geeft aan dat bij motorische aspecten van problemen het impliciete geheugen voor motorische responsen (procedurele kennis) een belangrijke rol speelt.

10) Blijf kalm. De prestatie op het oplossen van een probleem kan verminderen als je angstig of gestresst bent.

11) Als laatste redmiddel: oefenen. Het oefenen van een bepaalde soort problemen vergroot je domeinkennis en helpt je om bepaalde stappen te automatiseren. Expertise is meestal niet een resultaat van aangeboren factoren, maar van regelmatig en toegewijd oefenen.

Figuren (Zie Bijlage)

Figuur 7.1: Reactietijden voor het noemen van een item met een bepaalde beginletter binnen een categorie, met en zonder SOA.

Figuur 7.2: Connectionistisch model van activatie en inhibitie tussen leden van een categorie.

Figuur 9.1: Grammatica van de zinsstructuur weergegeven als diagram.

Equivalent van diagram in woorden: {(de man) (verliest (een handschoen))}

Figuur 11.1: Voorbeeld van een Venn-diagram als hulpmiddel bij syllogismen

Figuur 11.2: Natuurkundige vraagstukken met aan de linkerkant het probleem, in het midden voorbeelden van de foute oplossingen die mensen geven en rechts de goede oplossing. Het bovenste vraagstuk is een bal die aan een touwtje rondgeslingerd wordt. De vraag is hoe de bal beweegt wanneer het touwtje plots wordt doorgeknipt. Het onderste vraagstuk betreft welk bewegingstraject een bom,die uit een bewegend vliegtuig wordt gegooid, aflegt.

Figuur 12.1: Het Tower of Hanoi probleem met links de “source peg”, midden de “stack peg” en rechts de “destination peg”.

Back to top

Samenvatting bij de 5e druk van Cognition van Ashcraft en Radvansky (2024)
Top Articles
Latest Posts
Article information

Author: Edwin Metz

Last Updated:

Views: 6254

Rating: 4.8 / 5 (58 voted)

Reviews: 89% of readers found this page helpful

Author information

Name: Edwin Metz

Birthday: 1997-04-16

Address: 51593 Leanne Light, Kuphalmouth, DE 50012-5183

Phone: +639107620957

Job: Corporate Banking Technician

Hobby: Reading, scrapbook, role-playing games, Fishing, Fishing, Scuba diving, Beekeeping

Introduction: My name is Edwin Metz, I am a fair, energetic, helpful, brave, outstanding, nice, helpful person who loves writing and wants to share my knowledge and understanding with you.