Una rassegna sul formato della rappresentazione nelle scienze cognitive

1. Introduzione

Il concetto di rappresentazione mentale è stato di fondamentale importanza sin dalla nascita delle scienze cognitive, verso la metà del secolo scorso, ed occupa un posto di rilievo in molti campi di ricerca; tra questi, soprattutto la filosofia, le neuroscienze cognitive, la linguistica e la psicologia cognitiva si occupano assiduamente della rappresentazione. Nonostante ciò, persiste una lacuna nella precisa definizione del concetto stesso, soprattutto per quanto concerne il formato nel quale la rappresentazione mentale sarebbe presente nella nostra mente.

Con questo contributo ci si propone di analizzare la recente letteratura psicologica e neuropsicologica per comprendere quali siano le ipotesi concernenti la rappresentazione mentale ed il modo in cui tale concetto viene definito ed utilizzato dai ricercatori. In particolare, sarà interessante indagare la relazione tra rappresentazione, cognizione e percezione, ma anche le ipotesi neuropsicologiche inerenti la semantica nel loro incontro/scontro con le ipotesi di una rappresentazione mentale di tipo modale ed amodale.

2. La rappresentazione mentale

Secondo la definizione del filosofo della mente David Pitt, «una rappresentazione mentale potrebbe essere considerata, in linea di massima, come un oggetto mentale dotato di proprietà semantiche. Pertanto, la rappresentazione mentale […] non deve essere intesa solo da un punto di vista computazionale» (Pitt, 2000). Questo «oggetto» è ciò che, all’interno di una prospettiva computazionale, nei processi cognitivi viene elaborato, manipolato, immagazzinato. In quanto dotato di proprietà semantiche, questo «oggetto» mentale ha in sé un significato, conferitogli da ciò cui si riferisce nel mondo esterno (dunque, da ciò che rappresenta: concezione che potremmo definire «esternista») e/o dalle relazioni che intesse con le altre rappresentazioni (dunque, dal suo ruolo all’interno della classificazione categoriale che ognuno di noi crea del mondo esperito, con le somiglianze e le differenze che rendono ogni mente fortemente individuale: concezione «internista»).

Soffermandoci su questo secondo aspetto, la rappresentazione mentale si colloca all’interno della più vasta architettura concettuale che, tramite un processo di categorizzazione dell’informazione percepita, si viene costituendo e continuamente modificando in funzione dell’esperienza. In questo senso, è difficile spiegare qual è la differenza tra un concetto ed una rappresentazione, tanto che si parla anche di «rappresentazione concettuale» (Smith & Medin, 1981; Murphy, 2002). Per rendere una prima idea della differenza tra rappresentazione e concetto, potremmo dire forse che la prima è uno «schizzo» , un riassunto «modale» ed attivo della conoscenza di X, mentre il concetto è l’insieme della conoscenza immagazzinata relativa ad X stesso (aperta è la discussione sul fatto che rappresentazioni e concetti possano essere definiti «modali» o si debbano definire «proposizionali» : ne parleremo tra poco).

La rappresentazione si lega dunque al fenomeno della categorizzazione, che a sua volta viene genericamente suddivisa in due stadi (nel solco di una rivisitazione della teoria computazional-rappresentazionale classica, che ricorderemo più avanti):

  1. una categorizzazione percettiva, fondata sui sensi e non concettuale, che possiede un legame stretto con il corpo (posizione nello spazio) e con il movimento: questo è un primo livello di categorizzazione, e serve ad agire/reagire al mondo;
  2. una categorizzazione simbolica, legata al linguaggio e di tipo concettuale: siamo ad un secondo livello, che ci rende atti a comunicare (a sé, agli altri).

Tale distinzione non deve però far pensare a due compartimenti stagni: le categorie percettive potrebbero in un secondo momento esser soggette a trasformazione fino a divenire categoria concettuale (Nolan, 1994). Pure, non si devono immaginare come necessariamente successivi: non necessariamente al primo dovrà seguire il secondo (ci sono conoscenze di cui non realizziamo un corrispettivo proposizionale-simbolico, come accade per la conoscenza procedurale: si pensi al concetto «andare in bicicletta» ).

Vi sono state differenti ipotesi dalla nascita della scienza cognitiva ad oggi relativamente alla rappresentazione mentale. Vorremmo ricordarne brevemente alcune tra le più significative.

Secondo la teoria del doppio codice di Paivio (1969), noi usiamo un codice analogico (immagini) ed un codice simbolico (parole) per rappresentare le informazioni.

Per l’ipotesi proposizionale (Pylyshyn, 1973, 1981, 2003; Fodor, 1975), , la conoscenza è rappresentata tramite forme astratte simili alle proposizioni del linguaggio naturale nelle quali sono immagazzinati i significati «profondi» .

Secondo l’ipotesi di equivalenza funzionale (Farah, 1988; Finke, 1989), invece, le rappresentazioni sono immagini funzionalmente identiche (non totalmente identiche) a ciò che rappresentano nel mondo così come percepito dal soggetto, ovvero sono analoghe al percetto.

Con l’ipotesi dei modelli mentali (Johnson-Laird, 1983, 1989), Johnson-Laird sostiene che la rappresentazione possa avere forme differenti: in proposizioni, in immagini, in modelli mentali.

Infine, per i sostenitori dell’approccio connessionistico allo studio della mente (McCulloch & Pitts, 1943; Rumelhart, 1989; Rumelhart & McLelland, 1986; Smolensky, 1988), le rappresentazioni mentali sono pattern di attivazione di una rete connessionista, ovvero una rete neurale artificiale consistente di «nodi» cui non è possibile attribuire proprietà semantiche (si parla di sub-simboli, anche se i localisti presentano una differente versione al riguardo: cfr. Ballard, 1986).

Fondamentalmente, oggi sono due (con le proprie organizzazioni interne) le ipotesi relative al formato della rappresentazione mentale:

  1. la cognizione è «staccata» dalla percezione, è amodale (idea originatasi con la rivoluzione cognitiva, a partire dagli anni ’50-’60; cfr. Fodor, 1975; Pylyshyn, 1973);
  2. la cognizione è essenzialmente percettiva, è modale (tradizione filosofica propria dell’associazionismo anglosassone; oggi, Barsalou, 1999).

Iniziamo discutendo della prima.

3. La concezione amodale

L’approccio amodale asserisce che la conoscenza viene rappresentata non nei sistemi specifici per modalità sensoriale ma attraverso le ridescrizioni degli stati di tali sistemi in un linguaggio rappresentazionale amodale.

Un filosofo della mente e psicologo cognitivo che poggia l’impalcatura del suo sistema teorico sul presupposto che il formato della rappresentazione sia amodale è Jerry Alan Fodor (si pensi, al suo testo del 1975 The Language of Thought, ormai divenuto un classico).

Secondo Fodor, infatti, la conoscenza è rappresentata tramite una ridescrizione-traduzione degli stati di attivazione delle modalità sensoriali in un formato amodale-simbolico, simile ai simboli del linguaggio. Il pensiero logico allora si attuerebbe come una manipolazione di tali simboli amodali in base a regole simili a quelle del linguaggio proposizionale: le regole della logica proposizionale. Tali regole, inoltre, possono venire realizzate anche dal software di un computer: questa concezione si basa sulla metafora della mente come elaboratore d’informazioni, cruciale nella scienza cognitiva classica. Viene definita «classica» o «computazionale» la prima fase della scienza cognitiva (a partire dalla metà del Novecento fino agli anni Ottanta del secolo scorso) in contrapposizione con la seconda fase di scienza cognitiva, definita «post-classica» o «neurale» in quanto l’interesse dei ricercatori s’incentrò in maniera rilevante sulle neuroscienze cognitive, dunque sulle strutture e funzioni del cervello (prima considerato un substrato irrilevante per comprendere la mente), e sul ruolo dell’interazione con l’ambiente, dunque anche del corpo in movimento (Marraffa, 2002; Parisi, 2002).

Nel pensiero fodoriano, che s’inscrive nel quadro del funzionalismo filosofico, alla teoria computazionale della mente (impostasi nelle ricerche cognitive a partire dagli anni Cinquanta-Sessanta) si affianca una rivisitata teoria rappresentazionale che guarda alla rappresentazione come ad un simbolo, un modello mentale dell’ambiente esterno dotato di una struttura proposizionale propria di sintassi (la forma) e semantica (il contenuto), così come fosse un linguaggio naturale. Ad essere manipolata secondo le regole proposizionali è la struttura di tale simbolo (che reca in sé il proprio contenuto). A suo parere dunque nella nostra mente è presente un vero e proprio «linguaggio del pensiero»: il Mentalese. Per giungere però al livello propriamente cognitivo, quello appunto del Mentalese, le informazioni percepite devono essere state «tradotte» , ovvero devono aver subito una manipolazione da parte dei moduli (fig. 1). La teoria della modularità di Fodor, che egli esprime nel saggio del 1983 The Modularity of Mind. An Essay on Faculty Psychology, nasce proprio dalla necessità di creare, a partire dal percetto, un simbolo avente «dignità» cognitiva.

Image

Fig. 1: Rappresentazione schematica dell’architettura cognitiva ipotizzata da Jerry A. Fodor.

È stato notato che la teoria amodale sembra possedere la potenza di una macchina di Turing: può esprimere ogni pattern descrivibile (Anderson, 1978; Pylyshyn, 1981). Tuttavia, il costo è la non falsificabilità di tale ipotesi (Barsalou et al., 2003).

4. Le teorie modali

Un’apprezzata ipotesi relativa al formato della rappresentazione mentale è quella proposta da Barsalou e dai suoi colleghi nella produzione letteraria degli ultimi dieci anni.

Nell’ipotesi del perceptual symbol system (Barsalou, 1999), i processi concettuali si basano ed implicano la riattivazione delle modalità sensoriali di volta in volta implicate nella rappresentazione corrente. L’obiettivo è tutto riassunto nel titolo dell’articolo del 2003, «Grounding conceptual knowledge in modality-specific systems» (Barsalou et al., 2003): è dalle e nelle modalità con cui esperiamo che si costruisce la rappresentazione della conoscenza; non più dunque traduzione ma riattivazione («transduction versus re-enactment», op. cit.; fig. 2).

Image

Fig. 2: Differenza tra concezione amodale e modale nel riconoscimento degli oggetti (da Barsalou et al., 2003).

Ovviamente, la sola riattivazione non potrebbe spiegare la piena funzionalità di un sistema concettuale fondato sulle modalità. Oltre questo, vi sono altri importanti meccanismi: l’attenzione selettiva e l’integrazione nella memoria.

L’attenzione selettiva fa in modo che di alcuni stati percettivi si «selezionino» alcune componenti. Ad esempio, in un certo momento nel mio giardino posso focalizzare l’attenzione sul mio roseto in fiore: piuttosto che «rappresentarmi» tutta la scena così come la registrerebbe una videocamera, sono i dettagli e la scelta operata hic et nunc (dettata forse da alcune esigenze od affordances ambientali: voglio rilassare lo sguardo, dunque lo distolgo dal computer ed osservo i fiori) a dare un senso a ciò che esperiamo. Una volta selezionate certe componenti, la memoria integra l’informazione presente con quella «registrata» in passato in presenza di simili componenti. Nelle aree associative di livello superiore, inoltre, i neuroni connessi comunemente integrano le informazioni specifiche per modalità: in questo modo si vengono a formare le categorie semantiche polimodali, ovvero possono emergere le rappresentazioni multimodali delle categorie. Termini quali «categoria concettuale» e «rappresentazione multimodale» vengono dunque da questi autori identificati con qualcosa di fortemente concreto.

Barsalou inoltre identifica una categoria concettuale (ad esempio, «rosa» ) con un simulatore: ogni volta che, a seguito della selezione di certi componenti di una scena percepita, si riattiva la memoria legata ad una certa categoria, essa viene in qualche modo simulata. Si sviluppa un simulatore per ciascuna componente dell’esperienza che ricorra ripetutamente all’attenzione.

Per comprendere meglio, il simulatore corrisponde alla categoria (potremmo dire, utilizzando una terminologia filosofica, è il type), mentre le infinite simulazioni che se ne possono produrre sono le attivazioni specifiche e tra loro differenti (i token); queste ultime non sono mai riattivazioni complete degli stati da cui originano, ma sono sempre parziali e possono anche contenere distorsioni. Anche le simulazioni, ovviamente, sono multimodali e possono contenere non solo stati sensoriali ma anche stati motori e cognitivi in genere.

Pur essendo una delle ipotesi più recenti tra quelle relative al formato della conoscenza all’interno della scienza cognitiva, tuttavia la teoria elaborata da Barsalou e colleghi potrebbe vantare una moltitudine di filosofi nella storia del pensiero occidentale che vi avrebbero aderito. Si pensi a tutta la storia dell’associazionismo anglosassone, di cui Locke (An Essay Concerning Human Understanding, 1690), Hume (An Enquiry Concerning Human Understanding, 1748), Hartley (Observations on Man, His Frame, His Duty and His Expectations, 1749) e Bain (Mind and Body. The Theories of Their Relation, 1872) sono senza dubbio i maggiori esponenti. In tale quadro teorico, è la connessione tra le idee — non di tipo platonico-razionalista ma derivate dalle modalità sensoriali — a far emergere la conoscenza. Secondo alcune interpretazioni, inoltre, l’approccio associazionistico può essere considerato un precursore del connessionismo, di cui si è discusso brevemente nel primo paragrafo, in quanto il pattern di attivazione di una rete neurale corrispondente ad una certa rappresentazione si crea come tale solo in seguito ad una serie di esperienze ripetute dell’oggetto/concetto rappresentato; dunque l’associazionismo si rivela un buon meccanismo esplicativo, tanto da un punto di vista epistemologico quanto neurofisiologico, di dinamiche cognitive quali l’apprendimento (Sutton, 1998; Van Gelder, 1991; Smolensky, 1988). Su questo, Haselager ha affermato: «Cognitive science is developing in an associationisitc direction» (Haselager, 1999).

Sempre nell’ambito delle teorie modali, sono da citare anche le teorizzazioni dei ricercatori del gruppo di Parma che recentemente, sulla scia dei lavori concernenti i cosiddetti «neuroni mirror» , ha parlato di «rappresentazione» nei termini di «ri-presentazione» , ovvero di «simulazione» . Secondo la teoria della simulazione incarnata (Gallese, 2001; 2003), la rappresentazione della realtà è un modello interattivo di ciò con cui ci relazioniamo. Con tale ipotesi forte si vuol sostenere che la dinamica rappresentazionale è un tipo di auto-organizzazione in cui le azioni svolgono un ruolo cruciale: specificare il formato, le routines informazionali che caratterizzano una interazione intesa come «rappresentazione di X» , indipendentemente dall’avere un contenuto di tipo simbolico. In questo senso, avere una ri-presentazione interna di un oggetto esterno significa avere un modello dello stimolo da utilizzare, per così dire, off line per simulare azioni; tale rappresentazione non è dunque connessa direttamente con l’oggetto-stimolo esterno (la connessione diretta c’è solo nell’interfaccia sensoriale), ma è connessa con la dinamica interattiva organismo-ambiente. La rappresentazione è, quindi, il risultato di una modellizzazione.

5. La rappresentazione in neuropsicologia

Le tecniche di neuroimaging funzionale hanno permesso negli ultimi decenni di condurre, all’interno delle neuroscienze cognitive, ricerche sperimentali rilevanti ai fini dell’indagine concernente la categorizzazione semantica, il formato e la localizzazione della rappresentazione mentale. Tuttavia, i risultati di tali studi sono spesso divergenti e a tutt’oggi difficilmente interpretabili secondo un criterio univoco. Dunque, molte sono le teorie che sembrano poggiare su validi risultati sperimentali e che, ciò nonostante, tra loro non sono compatibili o lo sono solo in parte.

Il risultato che, di primo impatto, appare di notevole importanza è la correlazione tra deficit specifici e la perdita di specifiche categorie concettuali (ad esempio, la facoltà di riconoscere un certo tipo di oggetti: si pensi alle agnosie). Tali deficit specifici per categoria dimostrerebbero, secondo alcuni ricercatori, che la memoria semantica è organizzata in sottosistemi — moduli — separabili e selettivamente danneggiabili, ovvero è organizzata per categorie tassonomiche (Warrington & Shallice, 1984; Humphreys & Forde, 2001; Caramazza & Shelton, 1998). Tuttavia, secondo altri studiosi (Tyler & Moss, 2001) le aree di attivazione per categoria variano troppo tra uno studio e l’altro per parlare di moduli concettuali: la conoscenza concettuale (memoria semantica) è rappresentata invece in un unitario sistema distribuito: distributed account. L’effetto-categoria sarebbe dovuto alla rilevanza semantica («dominance and distinctiveness»; Sartori et al. 2005, 2006; Mechelli et al., 2006).

Di reti distribuite parlano anche Martin e Chao (2001): le componenti che formano un concetto (features) sono immagazzinate in differenti luoghi della corteccia, secondo le modalità con le quali sono state esperite (componente sensomotoria): feature-based model (si veda anche Sitnikova et al., 2006; Martin et al., 2000; Martin, 2001). Questo modello teorico è in accordo, come si può notare, con l’approccio modale.

Secondo altri ancora (Kiefer & Spitzer, 2001; Kiefer, 2005), l’enorme sovrapposizione di aree attive in compiti cognitivi differenti è a favore dell’ipotesi dell’esistenza di mappe semantiche multiple localizzabili, con gradi di attivazione variabili.

Coltheart (2004) ipotizza l’esistenza dei cosiddetti lexicons, sistemi locali di rappresentazione della forma di una classe di stimoli in un particolare dominio rappresentazionale (phonological lexicon; orthographic lexicon; pictorial lexicon). Essi si collocherebbero oltre il livello percettivo ma prima dell’informazione semantica, e permetterebbero di spiegare alcune patologie neuropsicologiche. Un limite di questo approccio risiede nel non offrire un’ipotesi concernente la localizzazione delle componenti teorizzate relative tanto ai «lexicons» quanto alla semantica.

Infine, secondo l’interactive modality specificity hypothesis (Thompson-Schill et al., 1999; Thompson-Schill, 2003) la memoria semantica è una collezione di sistemi funzionalmente ed anatomicamente distinti, legati alle differenti modalità sensoriali. Inoltre, il retrieval nella giusta modalità è affiancato ad una multimodalità concettuale (rappresentazioni distribuite, ma non di tipo amodale); ciò permetterebbe di spiegare anche perché un deficit in una sola modalità crea impairment di tipo categorico: ogni modalità contribuisce alla formazione di una rappresentazione multimodale. Sottolineiamo la convergenza tra un’ipotesi di questo tipo e l’ipotesi del perceptual symbol system: in entrambi i casi, si dà rilievo alla forte componente percettiva e modale della cognizione e l’esigenza di un «riassunto multimodale» , ovvero di un simulatore per Barsalou ed i suoi colleghi e di rappresentazioni multimodali per il gruppo di ricerca di Thompson-Schill.

Non sembrano esservi invece evidenze neuropsicologiche in favore dell’ipotesi amodale. Tuttavia, anche se sempre più spesso la registrazione dell’attivazione delle aree modali durante compiti concettuali viene interpretata come prova del fatto che tali aree siano la base della conoscenza concettuale (Martin, 2001), possono essere ipotizzate spiegazioni alternative. Barsalou commenta alcune di esse nel suo articolo del 2003. Un’ipotesi potrebbe essere che aree amodali affianchino aree modali ma si attivino solo in compiti concettuali, così che, pur essendo ritenute identiche attivazioni, in realtà si tratterebbe di aree con meccanismi di funzionamento differenti (ma il fatto che variabili percettive influenzino questo tipo di compiti non sembra avvalorare quest’ipotesi); un’altra possibilità, secondo Barsalou, potrebbe essere che i simboli amodali siano associati alle rappresentazioni specifiche per modalità, ma in questo caso sembrerebbero essere ridondanti e, attenendosi all’argomento del rasoio di Ockham, sembra opportuno non inserire più meccanismi e più leggi di quanti non ne servano per spiegare un certo fenomeno. Una possibilità potrebbe essere infine quella di interpretare l’attivazione multimodale sottesa ad una rappresentazione concettuale (tramite neuroni polimodali o nelle aree eteromodali; cfr. fig. 3 e prossimo paragrafo) come meccanismo amodale; così facendo, però, secondo il nostro parere muterebbe il significato della concezione amodale stessa: non più, allora, a-modale, con alfa privativo, ma multi o poli-modale.

Image

Fig. 3: Il collicolo superiore, una delle zone più rilevanti per l’integrazione multisensoriale (Meredith, 2002).

Secondo un tale ragionamento, le rappresentazioni multimodali potrebbero essere pensate come simboli, nella nostra testa, del mondo esperito (infatti, la mia rappresentazione di una rosa non sarà mai data solo da un connotato visivo ma a questo si accompagnerà sempre un certo tipo di profumo, di emozione e via dicendo), costruite su fondamenta modali ma tramite processi meta-modali. Che questi processi possano basarsi, come vorrebbero i tradizionali approcci amodali, su regole simili a quelle della logica proposizionale, rimane tuttavia molto discutibile.

6. Aree associative e rappresentazioni multimodali

Ciò che senz’altro emerge da una rassegna della recente letteratura è che si rivela importante, per capire in che modo ed in quale formato è organizzata la conoscenza, indagare le rappresentazioni nelle varie modalità ed i principi della loro integrazione.

Per prima cosa, appare dunque necessario comprendere in cosa consista l’integrazione multisensoriale, giacché, come precedentemente discusso, una rappresentazione multimodale può emergere, nelle ipotesi modali, tramite il lavoro di neuroni polimodali e di aree associative.

Per quanto concerne le basi neuronali, secondo Meredith (Meredith, 2002) la convergenza multisensoriale avrebbe luogo in alcuni neuroni singoli (ad esempio, quelli del collicolo superiore nei mammiferi; Meredith et al., 1986, 1987, 1996; Harting et al., 1997; Jiang et al., 2001) sui quali convergono le attivazioni di neuroni unimodali appartenenti ad aree modali differenti come mostrato dai risultati ottenuti nelle registrazioni elettrofisiologiche su singole cellule. Inoltre, a differenti condizioni (come ad esempio in presenza di certe relazioni temporali — sincronizzazione — e spaziali tra gli stimoli — regioni dello spazio da cui provengono) può seguire una convergenza multisensoriale di tipo eccitatorio o di tipo inibitorio (Meredith, 2002; Calvert et al., 2000). Ciò significa che la risposta evocata da stimoli in differenti modalità può essere superiore se eccitatoria ed inferiore se inibitoria rispetto alla somma delle singole attivazioni dovute agli stimoli presi isolatamente (fig. 4).

Image

Fig. 4: Esempi di convergenze multisensoriali di tipo eccitatorio o inibitorio (da Meredith, 2002).

Anche la congruenza semantica gioca un ruolo importante nel binding crossmodale, divenendo un interessante campo di studi in quest’ambito (Olivetti Belardinelli et al., 2004; Giard & Peronnet, 1999; Pourtois & De Gelder, 2002).

Numerose sono le aree cerebrali in cui tale tipo di convergenza può avere luogo, ma non si è ancora compreso pienamente il collegamento tra tali risultati e quelli provenienti dagli studi comportamentali di crossmodalità percettiva. Il quesito fondamentale è: dove ha luogo l’integrazione multisensoriale? Nell’effetto McGurk, la visione delle labbra del parlante influenza la percezione della sillaba udita: quando il parlante pronuncia un /ga/ ma lo stimolo uditivo che giunge è un /ba/, il soggetto tende a riconoscere la sillaba /da/ quale compromesso (McGurk & MacDonald, 1976; King & Calvert, 2001). Secondo alcune interpretazioni (Ettlinger & Wilson, 1990), è l’attivazione sincrona la causa fondamentale del binding, della unificazione delle differenti sensazioni provenienti dallo stesso oggetto in un percetto unitario.

Negli ultimi anni, all’esistenza di proiezioni da aree unimodali verso zone di convergenza multimodale si è affiancata l’ipotesi dell’esistenza di feedback da aree di convergenza verso le zone classicamente considerate unimodali (fig. 5; Calvert et al., 1997; Vroomen & De Gelder, 2000; Macaluso et al., 2000; Driver & Spence, 2000). Quest’ultime, dunque, sarebbero unimodali solo considerando le proprie afferenze, ma sarebbero influenzate da attivazioni in altre modalità tramite un feedback proveniente dalle zone di convergenza multimodale. Ad esempio, la percezione del movimento delle labbra può attivare la corteccia uditiva primaria anche in assenza di stimoli uditivi (Calvert et al., 1997; Sams et al., 1991).

Image

Fig. 5: Tipi di connessioni e feedback dalle aree associative alle aree unimodali (da Driver & Spence, 2000).

Nei termini della teoria del perceptual symbol system, la percezione del movimento delle labbra riesce ad attivare il simulatore «voce» (la rappresentazione del concetto «voce» ) e, in conseguenza di questo, la simulazione dell’evento vocale va ad attivare la corteccia uditiva.

7. Studi sull’imagery

Le immagini mentali si presentano come un caso di produzione cognitiva che si verifica in assenza di percezione. Esse sono una rappresentazione di cose o stati che al momento non sono percepiti dagli organi di senso (Finke, 1989). L’immaginazione può produrre mentalmente cose che non sono mai state realmente percepite e coinvolge rappresentazioni mentali in ognuna delle differenti modalità. Capire come funziona l’imagery (la rappresentazione della realtà per mezzo di immagini mentali) significa cogliere la rappresentazione della conoscenza in un’ottica differente, staccata dalla contingenza delle modalità percettive (in questo caso, il soggetto non esperisce nulla, c’è solo la fase di retrieval).

Le immagini mentali possono essere non solo visive, come il termine «immagine» potrebbe condurre a pensare, ma anche tattili, olfattive, gustative, uditive, organiche o cinestesiche. Insomma, possono coinvolgere tutte le modalità con le quali percepiamo l’ambiente, interno (il nostro corpo) ed esterno.

Definire le immagini mentali come «un caso di produzione cognitiva che si verifica in assenza di percezione» non significa dire che la rappresentazione, come immagine mentale, si crea a prescindere dalla percezione. In un recente studio fMRI, Palmiero et al. (2007) hanno constatato la presenza di attivazioni nelle cortecce sensoriali e motorie durante la generazione di immagini mentali nelle varie modalità percettive: ciò significa che la conoscenza concettuale è fondata sulle modalità sensoriali e sul nostro modo di agire-reagire nel mondo in cui il soggetto è immerso, in totale accordo con l’approccio dell’embodied cognition, ovvero con quel movimento che, dall’interno delle scienze cognitive post-classiche, rivendica la stretta connessione tra cognizione ed esperienze del soggetto, messe in atto tramite il corpo che interagisce nell’ambiente, un corpo con determinate capacità sensoriali e motorie le quali dunque formano le condizioni di possibilità per l’emergenza dei processi cognitivi più complessi (Varela, Thompson e Rosch, 1991; Berthoz, 1997; Clark, 1997; Petit, 1997; Van Gelder, 2003; Garbarini e Adenzato, 2004; Churchland, 2007).

Da alcuni studi è emerso che la cecità non impedisce la creazione di immagini mentali visive (Vecchi, 1998). Anche ciò è sembrato contraddire la tesi dell’utilità o della necessità di percezioni visive ai fini dell’imagery. Ma le cose non stanno esattamente in questi termini. In realtà, tra vedenti e non vedenti ci sono importanti differenze nella creazione di immagini mentali visive. In particolare, cambiano le strategie utilizzate nella creazione di tali immagini e la precisione: i ciechi, infatti, si basano più su coordinate egocentriche perché solitamente entrano in contatto con la realtà in modalità tattile e la loro esperienza è più «sequenziale» ; in compiti di richiamo di più caratteristiche contemporanee, la loro prestazione è significativamente peggiore rispetto ai vedenti (Vecchi et al., 2004). Dunque, la percezione che possiamo avere del mondo è determinante al fine delle rappresentazioni che di esso possiamo farcene.

8. Conclusioni

L’idea che la conoscenza sia essenzialmente fondata sulla percezione vanta una lunga tradizione filosofica (cfr. ruolo dell’associazionismo di cui si è discusso). Tale concezione è stata messa in crisi con il nascere della scienza cognitiva classica, dove il convergere di ambiti di ricerca differenti sullo studio dei processi cognitivi ha comportato il tentativo di unificare il vocabolario con cui discutere dei risultati ottenuti nei vari settori.

La metafora dell’uomo come elaboratore di informazioni, l’assunzione di una terminologia propria delle scienze informatiche e dell’intelligenza artificiale, ma anche lo sviluppo del funzionalismo computazional-rappresentazionale filosofico e dei modelli cognitivisti hanno comportato uno slittamento nel significato attribuito al termine rappresentazione: esso è venuto ad indicare uno stato della mente come macchina operativa, un suo contenuto staccato dalla percezione, in quanto mentre quest’ultima è legata alle modalità sensoriali ed al loro funzionamento e attivazione, la rappresentazione è — in tale contesto — per definizione amodale e simbolica.

Negli ultimi trent’anni però, nel contesto di quella che viene definita scienza cognitiva post-classica per distinguerla, come è stato detto, dall’approccio tipico della prima fase di scienza cognitiva, l’interesse è stato dirottato in misura di gran lunga maggiore sullo studio del corpo per comprendere la cognizione. Le neuroscienze cognitive, la nuova robotica, l’approccio ecologico, l’embodied cognition: tali approcci allo studio della mente e dei processi cognitivi hanno in vario modo contribuito a «riagganciare» la mente al corpo, la ragione alle emozioni, la cognizione alla percezione ed all’azione.

In questo contesto, il ruolo delle modalità percettive, dell’interazione con l’ambiente e del movimento intenzionale per l’emergere delle rappresentazioni è tornato a rivestire una notevole importanza, ed anzi è spesso considerato un vero e proprio fondamento per la cognizione.

9. Riferimenti bibliografici

  • Anderson J. R., «Arguments concerning representations for mental imagery», Psychol. Rev. , 85, 249-277, 1978.
  • Barsalou L. W., «Perceptual symbol systems», Behavioral and Brain Sciences, 22, 577-660, 1999.
  • Barsalou L. W., Simmons W. K., Barbey A. K., Wilson C. D., 2003 «Grounding conceptual knowledge in modality-specific systems», Trends in Cognitive Sciences, 7 (2), pp. 84-91, 2003.
  • Berthoz A., Le Sens du Mouvement, Odile Jacob, Paris, 1997; trad. it. Il senso del movimento, McGraw-Hill, Milano, 1998.
  • Bugenthal D. E., Kaswan J. W., Love L. R., Fox M. N., «Child versus adult perception of evaluative messages in verbal, vocal, and visual channels», Developmental Psychology, 2, 367-375, 1970.
  • Calvert G. A., Campbell R., Brammer M. J., «Evidence from functional magnetic resonance imaging of crossmodal binding in the human heteromodal cortex», Current Biology, 10: 649-657, 2000.
  • Calvert G. A., Bullmore E. T., Brammer M. J., Campbell R., Williams S. C., McGuire P. K., Woodruff P. W., Iversen S. D., David A. S., «Activation of auditory cortex during silent lipreading», Science, 276, 593-596, 1997.
  • Caramazza A., Shelton J. R., «Domain-Specific Knowledge Systems in the Brain: The Animate-Inanimate Distinction», The Journal of Cognitive Neuroscience, Vol 10, 1-34, 1998.
  • Chomsky N., Rules and Representation, New York: Columbia University Press, 1980.
  • Churchland P., Neurophilosophy at Work, Cambridge University Press, 2007.
  • Clark A., Being There: Putting Brain, Body and World Together Again, MIT Press, Cambridge (MA), 1997; trad. it. Dare corpo alla mente, MacGraw-Hill, Milano, 1999.
  • Coltheart M., «Modularity and cognition», Trends in Cognitive Sciences, 3 (3), pp. 115-120, 1999.
  • Coltheart M., «Are there lexicons?», QJ Exp Psychol A. , 57, 7, 1153-71, 2004.
  • Djordjevic J., Zatorre R. J., Jones-Gotman M., «Effects of perceived and imagined odors on taste detection», Chem. Senses, 29, pp. 199-208, 2004 (a).
  • Djordjevic J., Zatorre R. J., Jones-Gotman M., «The mind’s nose: effects of odor and visual imagery on odor detection», Psychol Sci. , 15 (3), pp. 143-148, 2004 (b).
  • Driver J., Spence C., «Multisensory perception: Beyond modularity and convergence», Current Biology, 10: R731-R735, 2000.
  • Ettlinger G., Wilson W. A., «Cross-modal performance. behavioural processes, phylogenetic considerations and neural mechanisms», Behavioral Brain Research, 1990, 40, 169-192.
  • Farah M. J., «Is visual imagery really visual? Overlooked evidence from neuropsychology», Psychological Review, 95, 307-317, 1988.
  • Farah M. J., Visual Agnosia: Disorders of Object Recognition and What They Tell Us about Normal Vision, Cambridge, MIT Press, 1990.
  • Finke R. A., Principles of Mental Imagery, Cambridge, MA: MIT Press, 1989.
  • Fodor J. A., The Language of Thought, Cambridge, Mass.: Harvard University Press, 1975.
  • Fodor J. A., The Modularity of Mind. An Essay on Faculty Psychology, Cambridge, Mass, The MIT Press, 1983.
  • Fodor J. A., Concepts: Where Cognitive Science went Wrong, Oxford University Press, New York, 1998.
  • Fodor, The Mind Doesn’t Work That Way, MIT Press, Cambridge (MA), 2000.
  • Gallese V., «The “Shared Manifold” Hypothesis: from mirror neurons to empathy», Journal of Consciousness Studies, 8, 5-7, pp. 33-50, 2001.
  • Gallese V., «A neuroscientific grasp of concepts: from control to representation», Phil. Trans. Royal Soc. , 2003.
  • Garbarini F., Adenzato M., «At the root of embodied cognition: cognitive science meets neurophysiology», Brain and Cognition, 56: 100-106, 2004.
  • Giard M. H., Peronnet F., «Auditory-visual integration during multimodal object recognition in humans: a behavioural and electrophysiological study», Journal of Cognitive Neurosciences, 11, 473-490, 1999.
  • Gottfried J. A., Smith A. P., Rugg M. D., Dolan R. J., «Remembrance of odors past: human olfactory cortex in cross-modal recognition memory», Neuron, 42 (4), pp. 687-95, 2004.
  • Harting J. K., Feig S., Van Lieshout D. P., «Cortical somatosensory and trigeminal inputs to the cat superior colliculus: light and electron microscopic analyses», J. Comp. Neurol. , 388, pp. 313-326, 1997.
  • Haselager W. F. G., «Neurodynamics and the revival of associationism in cognitive science», in A. Riegler, A. von Stein, and M. Peschl (Eds.), Does Representation Need Reality?, pp. 115-120, New York, Plenum Press, 1999.
  • Humphreys G. W., Forde E. M. E., «Hierarchies, similarity, and interactivity in object recognition: “Category-specific” neuropsychological deficits», Behavioral and Brain Sciences, 24, pp. 453-509, 2001.
  • Jiang H., Wallace M. T., Jiang H., Vaughan J. W., Stein B. E., «Two cortical areas mediate multisensory integration in superior colliculus neurons», Journal of Neurophysiology, 85, pp. 506-522, 2001.
  • Johnson-Laird P. N., Mental Models: Towards a Cognitive Science of Language, Inferences, and Consciousness, Cambridge, Mass., Harvard University Press, 1983.
  • Johnson-Laird P. N., in M. I. Posner (Ed.), Foundations of Cognitive Science, Cambridge: MIT Press, 1989.
  • Kiefer M., Spitzer M., «The limits of a distributed account of conceptual knowledge», Trends in Cognitive Sciences, 5 (11), pp. 469-471, 2001.
  • Kiefer M., «Repetition-priming Modulates Category-related Effects on Event-related Potentials: Further Evidence for Multiple Cortical Semantic Systems», Journal of Cognitive Neuroscience, 17, pp. 199-211, 2005.
  • King A. J., Calvert G. A., «Multisensory integration: perceptual grouping by eye and ear», Current Biology, 11, R322-R325, 2001.
  • Macaluso E., Frith C., Driver J., «Modulation of human visual cortex by crossmodal spatial attention», Science, 289: 1206-1208, 2000.
  • Marr D., Vision: A Computational Investigation into the Human Representation and Processing of Visual Information, Freeman, San Francisco, 1982
  • Marraffa M., Scienza Cognitiva. Un’Introduzione Filosofica, CLEUP, Padova, 2002.
  • Martin A., Ungerleider L. G., Haxby J. V., «Category-specificity and the brain: the sensory-motor model of semantic representations of objects» in M. S. Gazzaniga (ed.), Category Specificity and the Brain: The Sensory-Motor Model of Semantic Representations of Objects, Cambridge, MA: MIT Press, 1023-1036, 2000.
  • Martin A., «Functional neuroimaging of semantic memory», in R. Cabaza, A. Kingstone, Functional Neuroimaging of Semantic Memory, Cambridge, Massachusetts: MIT Press, pp. 153-186, 2001.
  • Martin A., Chao L. L., «Semantic memory and the brain: structure and processes», Current Opinion in Neurobiology, 11, pp. 194-201, 2001.
  • Massaro D. W., Egan P. B., «Perceiving affect from the voice and the face», Psychonomic Bulletin and Review, 3, pp. 215-221, 1996.
  • McCulloch W. S., Pitts W., «A logical calculus of the ideas immanent in nervous activity», Bullettin of Mathematical Biophysics, 5, pp. 115-33, 1943.
  • McGurk H., MacDonald J., «Hearing lips and seeing voices», Nature, 264, pp. 746-748, 1976.
  • Medin D. L., Barsalou L. W., «Categorization processes and categorical perception», in S. Harnad (ed.), Categorical Perception, Cambridge: Cambridge University Press, pp. 455-490, 1987.
  • Meredith M. A., Stein B. E., «Visual, auditory, and somatosensory convergence on cells in the superior colliculus results in multisensory integration», Journal of Neurophysiology, 56, pp. 640-662, 1986.
  • Meredith M. A., Nemitz J. W., Stein B. E., «Determinants of multisensory integration in superior colliculus neurons. I. Temporal factors», Journal of Neuroscience, 7, pp. 3215-3229, 1987.
  • Meredith M. A., Stein B. E., «Spatial determinants of multisensory integration in cat superior colliculus neurons», Journal of Neurophysiology, 75, pp. 1843-1857, 1996.
  • Meredith M. A., «On the neural basis for multisensory convergence: a brief overview», Cognitive Brain Research, 14, pp. 31-40, 2002.
  • Murphy G. L., The Big Book of Concepts, MIT Press, 2002.
  • Nolan R., «Distinguishing Perceptual from Conceptual Categories», in R. Casati, B. Smith, G. White (Eds.), Philosophy and the Cognitive Sciences, pp. 221-231, 1994.
  • Paivio A., «Mental imagery in associative learning and memory», Psychological Review, 76, pp. 241-63, 1969.
  • Palmiero M., Olivetti Belardinelli M., Sestieri C., Londei A., D’Ausilio A., Di Matteo R., Ferretti A., Del Gratta C., Romani G. L., «Embodied cognition: multi-modal imagery generation activates pre-motor areas», Poster presentation, ESCOP 2007.
  • Palmiero M., Raffone A., Olivetti Belardinelli M., «Do olfactory and gustatory mental images exist? Visual and semantic bases olfactory and gustatory imagery modalities», British Journal of Psychology, submitted.
  • Parisi D., «Sulla scienza cognitiva», Sistemi Intelligenti, XIV, 1, 2002.
  • Petit J. -L., Les neurosciences et la Philosophie de l’Action, Vrin, Paris, 1997.
  • Pitt D. (2000), «La rappresentazione mentale. Definizioni, modelli, teorie», in Galloni G. (a cura di), Identità e Rappresentazione. Scienza Cognitiva e Teorie della Mente, Stamen, p. 71, 2006.
  • Pylyshyn Z. W., «What the mind’s eye tells the mind’s brain: a critique of mental imagery», Psychological Bulletin, 80, pp. 1-24, 1973.
  • Pylyshyn Z. W., «The imagery debate: analogue media versus tacit knowledge», Psychological Review, 88, 16, 1981.
  • Pylyshyn Z. W., «Return of the mental image: Are there really pictures in the brain?», Trends in Cognitive Sciences, 7 (3), pp. 113-118, 2003.
  • Rumelhart D. E., «The architecture of the mind: a connectionist approach, in M. I. Posner (a cura di), Foundations of Cognitive Science, Cambridge, Mass., The MIT Press, pp. 133-59, 1989.
  • Rumelhart D. E., McLelland J. L., Parallel Distributed Processing, Vol. I, Cambridge, Mass., The MIT Press, 1990.
  • Sams M., Aulanko T., Hamalainen H., Hari R., Lounesmaa O. V., Lu D. T., Simola J., «Seeing speech: Visual information from lip movements modifies activity in the human auditory cortex», Neurosci Lett, 127, pp. 141-145, 1991.
  • Sartori G., Polezzi D., Mameli F., Lombardi L., «Feature type effects in semantic memory: An event related potentials study», Neuroscience Letters, vol. 390, pp. 139-144, 2005.
  • Sartori G., Mamelia F., Polezzi D., Lombardi L., «An ERP study of low and high relevance semantic features», Brain Research Bulletin, 69, pp. 182-186, 2006.
  • Scott S., Young A., Calder A., Hellawell D., Aggleton J., Johnson M., «Impaired auditory recognition of fear and anger following bilateral amygdala lesions», Nature, 385, pp. 254-255, 1997.
  • Sitnikova T., West W. C., Kuperberg G. R., Holcomb P. J., «The neural organization of semantic memory: Electrophysiological activity suggests feature-based segregation», Biological Psychology, 71, pp. 326-340, 2006.
  • Smith E. E., Medin D. L., Categories and Concepts, Harvard University Press, 1981.
  • Smolensky P., «On the proper treatment of connectionism», Behavioral and Brain Sciences, 11, pp. 1-74, 1988.
  • Sutton J., Philosophy and Memory Traces: Descartes to Connectionism, Cambridge Univ. Press, 1998.
  • Thompson-Schill S. L., Aguirre G. K., Esposito M. D., Farah M. J., «A neural basis for category and modality specifcity of semantic knowledge», Neuropsychologia, 37, pp. 671-676, 1999.
  • Thompson-Schill S. L., «Neuroimaging studies of semantic memory: inferring “how” from “where”», Neuropsychologia, 41, pp. 280-292, 2003.
  • Tyler L. K., Moss H. E., «Towards a distributed account of conceptual knowledge», Trends in Cognitive Sciences, 5, pp. 244-253, 2001.
  • Van Gelder T., «Dynamic approaches to cognition», in Wilson R., Keil F. (a cura di), The MIT Encyclopedia of Cognitive Sciences, http: //mitpress. mit. edu. /mitecs, Cambridge MA: MIT Press, 2003, pp. 244-246, 2003.
  • van Gelder T., «Connectionism and dynamical explanation», in Proceedings of the Thirteenth Annual Conference of the Cognitive Science Society. Hillsdale N. J.: L. Erlbaum Associates, pp. 499-503, 1991.
  • Varela F. J., Thompson E., Rosch E., The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Boston, 1991.
  • Vecchi T., «Visuo-spatial imagery in congenitally totally blind people», Memory, 6, 91-102, 1998.
  • Vecchi T., Tinti C., Cornoldi C., «Spatial memory and integration processes in congenital blindness», Neuroreport. 15 (18): 2787-2790, 2004.
  • Vecchi T., Cattaneo Z., Monegato M., Pece A., Cornoldi C., Pietrini P., «Why Cyclops could not compete with Ulysses: monocular vision and mental images», NeuroReport, 17, 723-726, 2006.
  • Warrington E. K., Shallice T., «Category specific semantic impairments», Brain, 107, pp. 829-854, 1984.