Fondamenti di psicologia generale appunti
Fondamenti di psicologia generale appunti
Questo sito utilizza cookie, anche di terze parti. Se vuoi saperne di più leggi la nostra Cookie Policy. Scorrendo questa pagina o cliccando qualunque suo elemento acconsenti all’uso dei cookie.I testi seguenti sono di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente a studenti , docenti e agli utenti del web i loro testi per sole finalità illustrative didattiche e scientifiche.
Fondamenti di psicologia generale appunti e riassunti
PSICOLOGIA GENERALE
Cap.1
IL METODO SPERIMENTALE
La differenza fondamentale tra la psicologia ingenua e la psicologia scientifica è l’uso del metodo sperimentale, attraverso il quale si possono fornire informazioni sulla relazione causale tra due o più variabili
Gli esperimenti funzionano così: una variabile detta indipendente deve essere controllata dallo sperimentatore, dalla variazione di questa dipende la prestazione psicologia misurata: variabile dipendente.
Il metodo che giunge a conclusioni dettagliate e precise è quello applicato ai processi cognitivi (memoria, percezione, apprendimento, ragionamento, risoluzione dei problemi, linguaggio)
Prima che venisse accettato l’esperimento quale metodo di controllo sulle ipotesi, si sono dovute superare le 3 barriere:
- dualismo mente – corpo (mente intesa come entità divisa dal corpo
- fiducia nell’introspezione
- disinvoltura metodologica tipica della psicologia ingenua
Per verificare la validità di una ricerca, bisogna costruire, oltre al gruppo sperimentale, anche un gruppo di controllo, a cui viene somministrato placebo.
In alcuni casi si ipotizzano dei modelli che mettano in relazione dei costrutti ipotetici. Esempio di modello della mente umana:
informazioni: registro sensoriale; MBT; MLT: modello input-output che descrive la sequenza di passaggi dell’informazione che vengono via via elaborate passando nei magazzini della memoria.
Il modello funziona come un algoritmo, ossia in modo da poter fare delle previsioni
Esistono anche esperimenti effettuati senza gruppo di controllo detti esperimenti naturali, e ci si limita a:
- condurre inchieste tramite questionari,
- esaminare casi clinici tramite colloquio clinico
- svolgere interviste
LO SVILUPPO STORICO DELLA PSICOLOGIA
INTROSPEZIONE come metodo di raccolta dati: la mente è vista come un’entità immateriale da esaminare. Consiste in un esame analitico condotto personalmente per capire la vita mentale interna (Wundt – Freud)
SCIENZA STRUTTURALISTA: coniuga il metodo introspettivo e il metodo sperimentale attraverso associazioni di idee
COMPORTAMENTISMO: psicologia scientifica nata dal fallimento degli strutturalisti; si occupa solo di osservare e rilevare i fenomeni osservabili attraverso il controllo sperimentale.Lo scopo è la previsione e il controllo del comportamento; l’oggetto di studio è il comportamento osservabile intersoggettivamente senza introdurre costrutti quali la mente, la memoria o la percezione.
- condizionamento di Pavlov
- condizionamento operante di Skinner
Basato su una rigorosa metodologia sperimentale per studiare i processi di apprendimento, come modificazione delle associazioni stimolo – risposta.
COLLOQUIO CLINICO: Piaget: sistema misto fra colloquio e osservazione
GESTALT o psicologia della forma.
La vita psichica, in particolare la percezione(processo primario ed immediato, oggetto principale di studio), è determinata dall’”intero”, con una propria individualità, non dalla somma degli elementi che la compongono.
- Concetto di “phi” o movimento apparente o stroboscopio
- Principio del minimo o della semplicità
- Criterio del dinamicismo: le forze si autoregolarizzano assumendo la forma più equilibrata (goccia d’acqua, orbita dei pianeti)
- Legge della vicinanza o prossimità
- Legge della chiusura
- Legge della somiglianza
- Legge della continuità
- Legge dell’esperienza passata
- Organizzazione figura-sfondo
- Cervello come sistema totale e dinamico
- Risoluzione dei problemi (problema dovuto ad una struttura senza una “buona forma”)
- Insight: risoluzione dei problemi per illuminazione e non per prove ed errori
- Fenomenologia: analisi dettagliata degli oggetti, come si presentano
- Costanza percettiva di grandezza, posizione, forma, colore
COGNITIVISMO
COGNITIVISMO Subentrato al comportamentismo, perché si cominciano a studiare fenomeni non visibili come l’intelligenza e in parziale polemica con la Gestalt.
- Considera la mente umana come elaboratrice attiva delle informazioni giunte dagli organi di senso; analizza i processi cognitivi (memoria, percezione, pensiero). L’organismo ha il ruolo di mediatore tra lo stimolo e la risposta ed è la sede dei processi mentali i cui principali esempi sono i processi cognitivi.
- Problema fondamentale: capire in cosa consiste il significato delle informazioni ricevute: noi percepiamo, impariamo e riteniamo solo gli stimoli significativi.
- Predilezione per i modelli, in quanto i processi interni sono inosservabili(modelli modulari)ognuno deputato ad una specifica funzione come i programmi del computer. Nei disturbi mentali, malfunzionamento di specifici moduli cognitivi e dei corrispondenti modelli cerebraliCome l’hardwere sta al cervello il softwere sta alla mente: il computer è molto efficiente nel costruire modelli della realtà, ma non è in grado di costruire modelli di sé mentre pensa, né di costruire modelli delle menti altrui, non è quindi in grado di comunicare
- Dispositivo per l’apprendimento TOTE (test – operate – test – exit: alla verifica iniziale della situazione segue l’azione che viene a sua volta controllata, se è favorevole l’azione è conclusa, altrimenti si ricomincia
- Problem solving
- Linguaggio
- Ha portato alla nascita dell’Intelligenza Artificiale: progetto di computer in grado di esibire comportamenti che richiederebbero intelligenza (adattamento attivo all’ambiente, capacità di ragionamento, risoluzione del problemi), con costruzione di modelli teorici, programmi, confrontabili con dati sperimentali. Oggi queste simulazioni sono il più potente strumento che l’uomo abbia creato per aiutare la sua mente:
- Ha accresciuto tutte le facoltà cognitive dalla percezione alla memoria al ragionamento
- Ha costruito complesse simulazioni
- Ci ha condotto a concepire i fenomeni mentali che dipendono dal cervello in termini di manipolazioni di simboli
- Ha creato menti collettive
- Ha permesso la costruzione di una rete mondiale di computer
- Ha reso possibile simulare su programmi molte delle operazioni corrispondenti a percezione, pensiero, memoria, impossibili da affrontare col metodo sperimentale
- APPROCCIO COMPUTAZIONALE SIMBOLICO. Qualunque processo cognitivo viene visto come l’equivalente di un processo di calcolo Mente come un computer, la cui potenza (capacità) dipende dal software e le capacità della mente vengono fatte dipendere dalla grandezza della memoria. Si occupa della costituzione e dell’architettura dei processi cognitivi I Simboli sono entità dotate di significato compiuto a livello macroscopico. Questo significato viene visto come qualcosa di immediatamente evidente.
Il simbolo è un elemento rappresentante un concetto o una quantità. E’ un tipo di segno convenzionale, capace di evocare una relazione tra un oggetto concreto e un’immagine mentale (linguaggio: simboli (parole) disposti in un ordine che precisa ulteriormente il significato). Diverso dal segnale (valore solo informativo e non evocativo) e dal marchio ( solo valore soggettivo)
- Vantaggi: iteratività: regole di manipolazione di simboli; ricorsività delle operazioni; ereditarietà; strutturazione gerarchica
- Svantaggi: necessità di capacità di memoria virtualmente illimitata; sensibilità ai disturbi con effetti disastrosi; incapacità di rendere conto del significato dei simboli e delle relazioni tra i simboli; incapacità di prevedere o controllare il risultato dell’azione di sequenze complesse di operazioni simboliche in presenza di strutture troppo complicate; problema della complessità, implementazione, decomposizione.
- APPROCCIO MODULARE. Anche il cervello avrebbe un’architettura modulare. I disturbi mentali sono dovuti a malfunzionamento di specifici moduli cognitivi quindi a malfunzionamento dei corrispondenti moduli cerebrali. Terapie possibili: farmaci e riabilitazione cognitiva, che però agiscono su una scala più alta, impossibile quindi un controllo della terapia.
Se fosse vero che i processi mentali sono computazione eseguite da un software mentale, i processi dovrebbero essere scomponibili in moduli altamente specializzati e interconnessi tra loro in modo orizzontale e verticale. Per scoprire questi ipotetici moduli si utilizza il metodo delle dissociazioni o decomposizioni, applicabile in due modalità: Top-down e bottom-up
- Top-down: riferita a processi cognitivi a livello macroscopico, può esserer applicata in due modi:
- Decomposizione modellistica: utilizzata nell’IA; scomposizione di un processo cognitivo in componenti sempre più elementari, implementandola poi con un apposito software: se si torna ai comportamenti studiati funziona
- Decomposizione dei compiti: considerati copie di compiti differenti con la variabile indipendente in comune: se manipolando la variabile si ottengono effetti solo su un compito, dimostrato che i due compiti sono eseguiti da moduli differenti
Non viene comunque fornita una prova attendibile dell’esistenza dei moduli
- Bottom-up: (neuroscienze)considerati soggetti con grave compromissione di una singola e specifica capacità cognitiva: utilizzando il metodo delle dissociazioni sono state evidenziate aree cerebrali deputate a compiti specifici, avvalendosi di indagini non invasive (TAC, RMN, PRT) ma è rara la compromissione di una singola capacità cognitiva o una lesione di una singola area.
Dalla tradizione analitica alla visione olistica
La scienza olistica è un paradigma scientifico che enfatizza lo studio dei sistemi complessi. Approccio in cui viene considerato il principio dell’emergenza nell’applicare il metodo scientifico. E’ in contrasto con la tradizione analitica che si propone di interpretare i sistemi complessi dividendoli nelle loro componenti e studiandone separatamente le proprietà.
Emergenza: principio che descrive il comportamento dei sistemi complessi. Processo di formazione di schemi complessi a partire da regole più semplici.
Un fenomeno, per essere definito emergente, deve essere inaspettato da un livello di osservazione più basso.
L’intelligenza “emerge” dalla connessione tra neuroni, per spiegare come il cervello possa essere intelligente mentre i singoli neuroni non lo sono.
Qualunque approccio che tenda a superare il computazionaliesmo e risolvere i problemi di complessità, implementazione e decomposizione deve:
- spiegare i fenomeni cognitivi in termini di emergenza (ad es. dall’attività dei neuroni) ma è difficile ottenere prove sperimentali dell’emergenza mentre si verifica, quindi le prove si riferiscono ad un fenomeno di emergenza verificato in precedenza: correlazioni a lungo raggio sia nell’attività cerebrale (segnali ECG provenienti da zone differenti, attività osciòòatoire di neurone lontani) che a livello psicologico( effetti gestaltici nella percezione, nella soluzione dei problemi, preminenza dell’elaborazione globale su quella locale nei processi attentivi, effetto della superiorità della parola sulla lettera singola, effetti del contesto nella comprensione di un testo, effetti del contesto nel richiamo della memoria episodica)
- tener conto delle circostanze peculiari con cui l’emergenza si manifesta nei processi cognitivi e nell’attività cerebrale. L’emergenza sembra qualificare entità o processi associati a 3 caratteristiche fondamentali: dipendenza dall’osservatore (una misura dell’emergenza è la sorpresa per fenomeni inaspettati), esistenza di diversi livelli di descrizione e comparsa di entità coerenti. Ci sono 3 tipi di emergenza: intuitiva (quando un comportamento appare inaspettato), pattern formation e intrinseca (comparsa di fenomeni collettivi imprevedibili ma compatibili con i modelli adoperati)
CONNESSIONISMO (visione olistica)
I processi cognitivi sono fenomeni macroscopici emergenti dalle interazioni tra le unità elementari. Le informazioni sono distribuite nella rete neurale stessa: una piccola lesione non provoca gravi danni.
- APPROCCIO SUBSIMBOLICO –. Rivolto a descrivere come i processi funzionano, più che a rappresentare le architetture cognitive. Come l’intelligenza umana si è evoluta nel tempo, per dare vita a macchine intelligenti bisogna seguire delle tappe evolutive.
- Introdotte le Reti Neurali: sistemi costituiti da unità e interconnessioni tra le unità, come modello astratto (e inadeguato) del S.N. (neuroni e sinapsi). Ciascuna connessione è caratterizzata da un numero detto peso o coefficiente di connessione che misura la forza con cui il segnale viene trasmesso dalla connessione stessa. Presenza di retroazione (feedback) cioè la capacità dei sistemi dinamici di tener conto dei risultati del sistema per modificare le caratteristiche del sistema stesso. Rappresentano una visione olistica perché le connessioni e i feedback tra nodi semplici collegati in un sistema possono dare origine ad un comportamento intelligente.
- Modello Mc Cullogh-Pitts: unico comportamento possibile è periodico.
- Schema di funzionamento di una generica unità:
segnale di ingresso, calcolo potenziale di attivazione, calcolo dell’uscita, uscita: i perceptroni multistrato con la regola di apprendimento error – backpropagation costituiscono le reti neurali più popolari.
L’interferenza catastrofica evidenzia un difetto di un carattere generale che riguarda tutti gli algoritmi di apprendimento delle reti neurali: i fenomeni di interferenza nella memoria umana non sono mai catastrofici
- APPROCCIO ENATTIVO. Si ispira all’intelligenza collettiva di alcuni insetti sociali e alla vita artificiale. Rivoluzionari metodi di programmazione hanno portato a programmi che mimano il comportamento di gruppi di insetti (formiche artificiali). Le azioni del nuovo complesso sistema artificiale non sono più determinate dal programma, ma nascono con lo stesso meccanismo di apprendimento dei sistemi naturali. I singoli elementi sono liberi di muoversi su una griglia che rappresenta il loro universo e creano situazioni imprevedibili. Non si è in grado di predire il comportamento del singolo elemento, ma si prevede una serie di stati possibili (che nel singolo sono solo 0 e 1) nell’insieme.
LA SCIENZA COGNITIVA
Nasce per studiare la conoscenza in modo unificato e le sue trasformazioni negli essere umani e utilizza i modelli, gli esperimenti e le simulazioni del computer.
I modelli ( della logica matematica o delle scienze applicate) sono utili perché consentono di conoscere le conseguenze dell’adozione di certe ipotesi, per verificare la validità delle conclusioni stesse. Costringono però ad astrarre, quindi le conclusioni possono non essere applicate alla vita reale.
MODELLO DELLA LOGICA MATEMATICA.
Il mondo concreto funge da modello di una teoria astratta
MODELLO DELLE SCIENZE APPLICATE.
Struttura simbolica costruita per rappresentare un insieme di fenomeni dell’esperienza: esistono 2 tipi di modelli:
- modelli descrittivi il cui scopo è descrivere in modo sintetico un insieme di eventi osservati
- modelli esplicativi il cui scopo è spiegare i fatti osservati per prevederne dei nuovi e prendere decisioni sui comportamenti da adottare. Questi modelli richiedono diversi approcci:
- approccio deduttivo: tipico della fisica, molto difficile e possibile solo in casi semplici
- approccio induttivo: da un insieme di osservazioni particolari si cerca di ricavare modelli di carattere generale. Funziona in casi di leggi molto semplici, richiede moltissimi dati e non riconosce ciò che è rilevante da ciò che non lo è
- approccio abduttivo: cerca di stabilire quale modello tra i diversi già formulati è quello più valido. Presuppone fasi precedenti (induttivo e abduttivo).
Cap.2
PROCESSI COGNITIVI
Sensazione e percezione sono un’interfaccia tra soggetto e realtà esterna
SENSAZIONE: impressione soggettiva, immediata, corrispondente ad uno stimolo. Può essere comunicata, compresa, e confrontata. E’ recepita da apparati recettori specifici (organi di senso) con i limiti intrinseci della sensibilità umana: gli organi di senso percepiscono una piccola gamma di stimoli, per esempio non udiamo gli ultrasuoni e non vediamo le radiazioni I.R. e U.V., e vengono percepiti stimoli di una certa intensità, cioè soglia assoluta iniziale e terminale; inoltre abbiamo bisogno di una soglia differenziale sufficiente perché sia rilevabile
Misurazione della soglia attraverso metodi psicofisici:
- metodo del limiti
- “ dell’aggiustamento
- “ degli stimoli costanti.
Bisogna tener conto dei limiti di questi metodi per la detezione del segnale (per sensibilità dell’organismo e criterio soggettivo di decisione?
PERCEZIONE Organizzazione delle sensazioni fornite dai sensi.. Consiste nel prendere coscienza di una sensazione.
Organizzazione percettiva: la mente organizza costantemente l’attività percettiva in modo da cogliere oggetti ed eventi in modo unitario e coerente.
Costanti percettive: l’organismo rivela i rapporti fra i diversi stimoli, coglie differenze e somiglianze e istituisce paragoni e confronti, in modo che la percezione dell’ambiente rimanga costante (grandezza, forma, colore; movimento reale, indotto e apparente)
Teoria ecologica di Gibson: le informazioni percettive sono contenute nella stimolazione così come essa si presenta al soggetto colti di preferenza stimoli necessari per il raggiungimento di un fine
Teoria computazionale di Marr: il soggetto codifica le immagini in funzione delle continue variazioni di intensità luminosa, come processo a stadi
New Look: p. influenzata dal significato emotivo dello stimolo
Teorie olistiche della percezione visiva
Teoria della Gestalt – approccio olistico: percezione come evento unico e immediato
Percepire vuol dire assegnare un significato agli stimoli provenienti dagli organi di senso e nell’attribuire loro proprietà fisiche: nitidezza ad immagine, grandezza ad oggetto chiarezza al suono… Ci chiediamo perché e come percepiamo
Percepiamo perché ricerchiamo la buona forma, perché è un’attività indispensabile per la sopravvivenza nell’ambiente.
Come percepiamo: quello che percepiamo non è quello che esiste davvero nella realtà. La nostra costruzione della realtà è una trasformazione della luce proiettata sulla retina.
La percezione è una complessa interpretazione della realtà, frutto di un’elaborazione mentale, e risente di processi cognitivi di classificazione.
Il processo della catena psicofisica, dallo stimolo distale,allo stimolo prossimale al percetto, crea una discrepanza fra realtà fisica e quella fenomenica (percepita) che può indurci a fare errori di valutazione su quello che percepiamo in 2 direzioni:
- errore dello stimolo: descrivere ciò che si sa e non ciò che si vede
- errore dell’esperienza: attribuire a stimoli distali o prox una proprietà fenomenica attribuibile solo ai precetti
Conseguenze:
- si vede quello che non c’è (contrasto di chiarezza…)
- non si vede quello che c’è (contorni illusori…)
- si vedono più cose in una e da diversi punti di vista
- si vede quello che non può esistere (escher)
- si vedono cose differenti da quelle che sono
Le illusioni sono percezioni di oggetti costruiti mentalmente, ma in realtà inesistenti.
- articolazione figura-sfondo, con fattori quali inclusione, convessità, orientamento
- figure reversibili, instabili e ambigue, con alternanza periodica figura-sfondo
- contorni anomali
- segmentazione campo visivo con principio della vicinanza, legge del destino comune, principio della buona direzione, leggi della chiusura e della pregnanza
- Meccanismi fisiologici che fanno superare il dilemma tra lo spazio percettivo (in 3D) e le immagini retiniche (in 2D)
Teorie della percezione
Si possono classificare secondo due criteri:
- in base al ruolo che assegnano alle caratteristiche fisiche dei pattern di stimolazione nel determinare il precetto e si distingue tra:
- teorie basate sullo stimolo (solo pattern di stimolazione)
- teorie basate su fattori interni: il precetto dipende anche da caratteristiche interne al soggetto
- processo a stadi successivi di elaborazione (alla base della progettazione di sistemi di visione artificiale) che postulano 3 stadi successivi :
- stadio di analisi primitiva: l’oggetto viene acquisito e analizzato in maniera grossolana
- stadio dell’analisi dettagliata: individuazione di dettagli riferiti a forma, colore, distanza, movimento…
- stadio di riconoscimento: si cerca di riconoscere e associare ad un nome o ad un significato
La teoria computazionale di Marr e Poggio è incompleta perché non descrive lo stadio di riconoscimento
Visione artificiale: insieme di processi che mirano a creare un modello approssimativo del mondo reale in 3D partendo da immagini in 2D, allo scopo di riprodurre la vista umana
Cap.3
Coscienza e attenzione sono attività psichiche continue e costantemente mutevoli
COSCIENZA.
Consapevolezza percettiva e cognitiva degli stimoli interni ed esterni, di natura selettiva. Assume la funzione di sistema rilevatore di errori, interrompendo o modificando l’esecuzione dell’attività. La coscienza è consapevole di se stessa, ma si fonda su processi inconsci, quindi siamo consapevoli solo dei processi finali. Funzione generale propria della capacità umana di assimilare la conoscenza. All'inizio vi è consapevolezza, cioè constatazione attiva della nuova conoscenza, quando a questa segue la permeazione definitiva del nuovo come parte integrante del vecchio, si può parlare di coscienza.
Questa funzione, applicata al susseguirsi di fenomeni di conoscenza (non solo sensoriali) genera il fenomeno della coscienza. Come fenomeno dinamico che si protrae nel tempo può essere identificata come un vero e proprio processo.
Le opportunità della coscienza sono favorite dal processo della conoscenza esternalizzata e dalla mente globale.
ATTENZIONE
Processo della mente che permette mediante dispositivi e meccanismi di concentrarsi selettivamente su un particolare stimolo, ignorando gli altri, agendo come filtro (infatti metafora del filtro, fascio di luce…). Viene diretta coscientemente verso un determinato stimolo ma può anche funzionare involontariamente (catturata automaticamente). Attenzione spaziale con orientamento volontario o automatico.
Se pensiamo alle attività che si possono eseguire contemporaneamente ci rendiamo facilmente conto che la natura dei compiti è un elemento importante e che più due compiti sono simili più la loro contemporanea esecuzione diviene difficoltosa. Due compiti possono somigliarsi, quindi interferire l'uno con l'esecuzione dell'altro, Esiste, però, anche un'interferenza da risorse che si verifica quando non c'è, tra i due compiti, competizione per alcun processo o meccanismo. In questo caso il fenomeno si può attribuire al fatto che qualsiasi operazione mentale, per essere svolta in modo ottimale, richiede una certa “dose” d'attenzione. Quest'ipotesi è stata variamente indagata attraverso il paradigma del doppio compito, metodo sperimentale nel quale si chiede ai soggetti di svolgere due compiti differenti contemporaneamente.
Gli effetti Simon, Stroop e Navon confermano in parte le teorie che ipotizzano una selezione tardiva degli stimoli irrilevanti dimostrando l'esistenza d'interferenza prodotta dalle informazioni non rilevanti per il compito.
Effetto Simon: immagini di quadrati e rettangoli, pulsante a sx per quadrato a dx per rettangolo: più veloce se quadrato a dx e rett a sx.
Effetto Stroop: colore associato al nome del colore stesso: più veloce se coerente
Effetto Navon: lettere grandi composte da lettere piccole
I PROCESSI ATTENTIVI E LE METAFORE PER DESCRIVERLI
Lo studio dei processi attentivi è fondamentale per progettare le interfacce uomo-macchina e per capire come i soggetti selezionano e recepiscono le informazioni. E’ condotto servendosi di esperimenti, metafore e modelli in grado di spiegare gli esperimenti stessi.
I tipi di compiti utilizzati negli esperimenti sono:
- attenzione selettiva (selezione di un’informazione fra tante contemporanee)
- attenzione divisa (selezione di più informazioni contemporaneamente o esecuzione di più compiti)
- vigilanza (mantenere elevata performance il più a lungo possibile)
Tipi di metafore
- Metafora del filtro per compiti di a. selettiva. L’attenzione lascia passare solo alcune informazioni che raggiungono il sistema percettivo, ossia la MBT, le altre vengono perdute. La teoria del filtro attenuato abbandona l’idea del canale unico, ma postula l’esistenza di più canali paralleli (canale lessicale, semantico, fisico). Ad ogni canale è associata un’enfasi che codifica l’importanza che ha per il soggetto in quel momento. La forza con cui il segnale viene trasmessa dipende dall’intensità e dall’enfasi. Al termine dei canali c’è la soglia: arrivano alla MBT solo i segnali con forza maggiore della soglia
- Metafora del serbatoio: Attenzione come un serbatoio con capienza limitata, cioè le risorse attentive. Si presta per lo studio dell’attenzione divisa
- Metafora del fascio di luce. Attenzione come un faro che illumina una particolare zona del campo percettivo, generalmente visivo consentendo di ricevere le stimolazioni provenienti solo da quella zona. Studia solo l’a. spaziale
- Metafora della lente con zoom
SONNO: stato autolimitato e reversibile, caratterizzato da ridotta reattività a stimoli ambientali e riduzione della coscienza.
Caratterizzato da 4 livelli o stadi di attività cerebrale:
- onde theta
- complessi K
- onde Delta
- onde Delta - sonno profondo e ristoratore
Ogni notte ci sono da 4 a 6 cicli; tra il 4° e il 1° stadio c’è il sonno REM o paradosso, caratterizzato da onde simili alla veglia
Ritmo sonno – veglia (circadiano) polifasico nel bimbo, momo o bifasico nell’adulto.
La deprivazione di sonno non determina particolari e gravi alterazioni fisiologiche (aumento F.C., diminuzione dell’attenzione, microsonni)
Teorie circadiane del sonno per protezione della vulnerabilità della specie e teorie ristorative del sonno.
Il ritmo sonno veglia persiste anche senza agenti sincronizzatori del sonno, ma si allunga.
I ritmi cambiano in base alla cultura di appartenenza
I sogni sono generati da attivazione di circuiti nervosi (o sono una rielaborazione dei ricordi)
IPNOSI induce significativi cambiamenti in percezioni, pensieri e comportamenti.
Si provocano suggestioni che conducono alla distorsione della realtà e che portano ad allucinazioni, reazione ideomotorie, inibizione del dolore dovuto a modificazioni delle attività nervose della corteccia, regressione di età, incremento del recupero dei ricordi.
Termina con amnesia post- ipnotica
Suscettibilità ipnotica: 5 – 10% non ipnotizzabili; 15% facilmente ipnotizzabili
MEDITAZIONE stato modificato di coscienza dovuto a esecuzione ripetitiva di esercizi mentali.
Cap.4
APPRENDIMENTO Processo di acquisizione di conoscenza basato sull’esperienza. Processo comulativo in cui gli individui assimilano gradualmente entità sempre più complesse e astratte (concetti, categorie, schemi di comportamento o modelli). Modificazione del COMPORTAMENTO a seguito di un’esperienza ripetuta. E’ un processo attivo e costruttivo, caratterizzato dalla capacità di fare previsioni e associazioni. C’è una forma di apprendimento individuale e sociale
Metodi di studio del comportamento (risposta del sistema motorio e ghiandolare)
- Riflesso – risposta automatica o incondizionata (RI) inscritta geneticamente nel S.N., in seguito ad uno stimolo incondizionato (SI)
- condizionamento classico pavloviano di tipo associativo: comporta l’associazione ripetuta tra SC e SI tale da evocare una risposta condizionata (RC)simile alla RI. Comparsa dei fenomeni di generalizzazione e discriminazione
- condizionamento operante, cioè non derivato da riflessi innati come il comportamento rispondente, ma emessi spontaneamente dall’organismo (Skinner) per prove ed errori– con introduzione di un meccanismo di rinforzo o punizione. Il rinforzo continuo provoca assuefazione (meglio il rinforzo sporadico). Costruzione di mappe cognitive per il principio del minimo sforzo; apprendimento latente anche in assenza di rinforzo.
Nel condizionamento operante è il soggetto ad operare attivamente nell’ambiente cambiando il proprio comportamento in risposta agli stimoli.
Concetti di competenza (ciò che si apprende) e di prestazione (ciò che si mette in atto); problem solving alla base della creatività
Apprendimento sociale:
- imprinting - guidato da dispositivi genetici
- app. osservativo per emulazione - riproduzione meccanica
- app. osservativi per imitazione, riproduzione consapevole, favorita dai neuroni mirror
Fin da neonati c’è interazione sociale: a 6 mesi condivisione congiunta dell’attenzione e a 9 mesi apprendimento per simulazione
Individuati 3 livelli di apprendimento:
- solo abitudine, ripetizione degli apprendimenti acquisiti
- modificazione della condotta per un miglioramento delle prestazioni
- predisposizione ad imparare
- conversione come ristrutturazione profonda
Categorizzazione: le categorie risiedono nella cultura, più che nella natura, specie le categorie funzionali
Dimensione delle categorie:
- verticale: mediante processo di inclusione, dal generale al particolare
- orizzontale: in termini di appartenenza e rappresentatività. Attribuendo valore di prototipo
Cap.5
MEMORIA capacità di conservare le informazioni e di recuperarle in modo pertinente. E’ un processo attivo e dinamico, inarrestabile, ma non infinito; ha un grado di distorsione ed è connessa con l’OBLIO. Implica 3 fasi distinte:
- codifica con fissazione
- ritenzione
- recupero composto da rievocazione, riconoscimento e riapprendimento
Stadi della memoria:
- registro sensoriale (m. iconica, olfattiva…) si mantiene per 400ms ci permette di parlare…
- Memoria a breve termine (MBT) o di lavoro; volatile, specie in presenza di compiti distrattori (anche solo 2 sec)
- Memoria a lungo termine (MLT), dopo reiterazione e elaborazione, virtualmente illimitata
Sistemi di memoria
- m. procedurale o implicita, relativa a comportamenti automatici
- m. dichiarativa o esplicita: riguarda le informazioni comunicabili, richiamate consciamente
- m. episodica: informazioni specifiche ad un contesto (particolare la m. autobiografica)
- m. semantica (quello che si sa, tutte le informazioni che sono indipendenti dal contesto in cui sono state memorizzate)
Amnesia totale o parziale, retrograda o anterograda; iperemnesia
OBLIO: perdita di informazioni; svolge un lavoro di selezione
Non il tempo ma la non rievocazione porta all’oblio (teoria del disuso)
Distorsioni della memoria: il ricordo è una rielaborazione di fatti e conoscenze:
ricordo falso, per illusione e autoinganno:
- carenze da omissione per labilità, distrazione e blocco
- carenze da commissione, per errata distribuzione, suggestionabilità, distorsione
- persistenza
- fallimento soppressione dei pensieri
I paradigmi sperimentali utilizzati per lo studio della memoria si possono classificare in base a due caratteristiche:
- la natura del compito: contraddistinta a sua volta da due tipi di compiti (in base ai sistemi di memoria):
- compiti episodici (modelli funzionali): si fa riferimento ad un preciso contesto, come memorizzare una lista di parole (lista di coppie associate; cane-coda; gatto-baffi. Alla domanda cane si valuta la risp)
- compiti procedurali
- compiti semantici (modelli strutturali): si fa riferimento alla conoscenza generale del soggetto, indipendentemente dal contesto (libere associazioni)
- la natura della risposta che si distingue in:
- risposte di richiamo riferite ad un particolare contenuto della memoria
- risposte di riconoscimento, ossia valutare se un contenuto è già stato memorizzato in precedenza (esame di una prima lista, latenza, esame 2° lista e riconoscimento degli item in comune - si analizzano i successi, le relazioni corrette e i falsi allarmi e i casi mancati)
La teoria dell’ interferenza prevede diversi tipi di fenomeni (nella memoria umana comunque l’interferenza non è mai catastrofica):
- interferenza proattiva: i recordi più remoti inibiscono quelli più recenti
- interferenza retroattiva: i ricordi più recenti limitano o danneggiano quelli precedenti
Il metodo migliore per evidenziare fenomeni di interferenza consiste nel ricorrere a liste di parole associate a coppie. L’interferenza può essere evidenziata in vari modi: variando la lunghezza della lista o presentando liste di coppie di parole, aventi i primi membri della coppia uguali fra loro.
Metafore della memoria:
- immagazzinamento e deposito (statico)
- mappa, come sistema dinamico (sistemi di neuroni le cui connessioni sono attivate in maniera preferenziale)
Categorie di modelli della memoria:
Modelli connessionistici: basati sull’utilizzo delle reti neurali, ovvero sistemi composti da unità in grado di attivarsi e connessioni tra le unità, ciascuna associata ad un peso: modello di Hoppfield .Questi modelli sono affetti da interferenza catastrofica.
Secondo Hebb il cervello va considerato come un insieme di assemblee cellulari, che si sono formate dall’esperienza (ipotesi della facilitazione sinaptica). Ciascuna assemblea è composta da un numero di neuroni con collegamenti specifici tra loro particolarmente forti.
Il modello di Quilliam è il primo modello di rete semantica, solo come valore descrittivo senza spiegarne il funzionamento. In una retes semantica ogni nodo corrisponde ad un concetto e i legami tra i concetti sono rappresentati da connessione tra nodi, ciascuna delle quali è associata ad una specifica etichetta: balena, mammifero animale…
- Modelli strutturali: basati sulla conoscenza della struttura. I meccanismi interni del sistema sono liberi dal contesto. Sono più facili da espandere e integrare con nuova conoscenza (compiti semantici)
- Modelli funzionali: basati su conoscenze procedurali. Sono dipendenti dal contesto (compiti episodici)
Cap.6
PENSIERO
Processo mentale per farsi una raffigurazione del mondo, per agire secondo i propri obiettivi, piani, desideri. Implica manipolazioni di informazioni per dar luogo a concetti da utilizzare per prendere decisioni e risolvere problemi.
MODELLI MENTALI rappresentazione di situazioni per prevedere eventi, fare ragionamenti, dare spiegazioni.
RAGIONAMENTO: componente essenziale del pensiero umano, che è dotato di alcune regole logiche.
Metaragionamento: ragionamento con oggetto la mente altrui
Ma la mente umana è irrazionale:
- incoerente, perché indotta a prendere per vere 2 affermazioni simultaneamente false
- focalizzazione e pseudodiagnosticità (teoria della cura del santone): si tralasciano le ricerche di informazioni su azioni alternative, specie se non si conoscono
Teorie dei modelli mentali (TMM)
La vita mentale si basa su 3 tipi di rappresentazioni:
- rapp. Proposizionali: simboli legati al linguaggio naturale
- modelli mentali: rappresentazione di situazioni per prevedere eventi, fare ragionamenti, dare spiegazioni.
- Immagini mentali: corrispondente percettivo dei modelli mentali.
La TMM deve rendere conto non solo del nostro modo abituale di ragionare, ma anche di come mai noi siamo programmati per commettere fallacie sistematiche in certi tipi di inferenze
- si costituiscono modelli mentali di ciò che è vero, non di ciò che è falso, per minimizzare il carico della memoria di lavoro, che è limitata, seguendo il principio di verità. Inferenze sillogistiche: modus ponens più semplice perché si basa su un modello esplicito: se A allora B: A quindi B. Modus tollens meno immediato (se A allora B; non B allora non A)
- più facile ragionare nei termini di un solo modello che di più modelli
- si tende a focalizzare su un solo dei possibili modelli, specie se gli altri non si conoscono
Problem solving
Approccio scientifico alla risoluzione dei problemi:
- percezione del problema
- definizione
- analisie divisione in sottoproblemi
- formulazione di ipotesi per la risoluzione
- verifica validità delle ipotesi
- valutazione soluzioni
- applicazione soluzione migliore ( per problemi complessi euristiche anziché algoritmi)
(F.A.R.E.: Focalizza, Analizza, Risolvi, Esegui)
Secondo la Gestalt il problema nasce dal fatto che esiste una struttura che non costituisce una “buona forma”. Il processo di risoluzione si ha con una ristrutturazione con una buona forma.
Può insorgere però il problema di fissità funzionale: si attribuisce ad un elemento sempre la stessa funzione (esperimento con candele, puntine e scatolette portafiammiferi).
Cap.7
COMUNICAZIONE
Processo di trasmissione di informazioni. Scambio interattivo osservabile fra due o più partecipanti, dotato di intenzionalità reciproca e di un certo livello di consapevolezza, in grado di far condividere un determinato significato sulla base di sistemi simbolici e convenzionali secondo la cultura di riferimento.
Caratterizzata da 3 dimensioni inscindibili:
- c. cognitiva: in connessione con pensiero, intenzionalità, azione pianificata
- c. relazionale: prevede interazione e contatto sociale
- c. espressiva: connessa all’arte
L’uomo comunicava ancor prima di parlare, col linguaggio è diventata una specie simbolica.
Pensiero e linguaggio si articolano in modo reciproco
Simbolo: elemento rappresentante un concetto o quantità. E’ un tipo di segno convenzionale, analogico, cioè capace di evocare una relazione tra un oggetto concreto e un’immagine mentale (linguaggio). Diverso dal segnale che ha solo valore informativo e non evocativo e dal marchio.
Diversità culturali
Multiculturalità
Costituisce un dominio interdisciplinare di studio, in quanto è stata indagata da differenti punti di vista scientifici:
- matematico come trasmissione di informazione. L’informazione non è cio che si dice, ma ciò che passa dall’emittente al ricevente (feedback)
- semiotico, cioè in che modo avviene il processo di significazione ossia la capacità di produrre significati. Elaborazione culturale del codice come convenzione , elaborazione di un sistema di categorie. Focalizza gli aspetti espliciti, stabili e cristallizzati della comunicazione.
- Pragmatico. Si occupa dell’uso dei significati, studia i rapporti che intercorrono tra testo e contesto ( insieme delle condizioni, opportunità e vincoli): dice come si fa, gli atti di dire qualcosa, nel dire qualcosa e con il dire qualcosa
- psicologico, la comunicazione come gioco delle relazioni: il comunicante procede su 2 piani possibili:comunicazione e metacomunicazione tramite il livello di notizia e di comando. La comunicazione è essenziale per alimentare e conservare il benessere psicologico ed è alla base di sofferenza e disagi psicologici.
NATURA DEL SIGNIFICATO
L’uomo vive di significati. Il significato è dotato di stabilità, ma anche di variabilità che è alla base della sua flessibilità.
Il significato di una parola è dato dal rapporto fra il linguaggio e la realtà.
Il significato come insieme di condizioni necessarie e sufficienti è troppo rigido
Il significato come valore linguistico, fa sì che un termine venga definito per quello che non è
Il significato come prototipo, concezione fondata sull’attività mentale della categorizzazione: proprietà essenziali e proprietà tipiche
Il significato come costrutto sociale: le interazioni sociali sono la radice dello sviluppo mentale e comunicativo (la conoscenza del mondo da parte del bambino non è diretta ma mediata dall’adulto)
INTENZIONE COMUNICATIVA
Intenzionalità come fondamento della comunicazione, sia per il parlante che per il ricevente.
C’è un’intenzione informativa (ciò che viene detto) e un’intenzione comunicativa (ciò che si intende dire)
Paradossalità della comunicazione: non si può comunicare tutto il proprio mondo privato.
Ci deve essere reciprocità intenzionale perché uno scambio comunicativo abbia successo.
IL LINGUAGGIO
Dispositivo specie-specifico, allo scopo di elaborare, organizzare e trasmettere conoscenze fra i partecipanti di una comunità. Costituito da unità componibili. Regolato da una struttura sintattica, permette di generare e comprendere un numero infinito di significati.
- composto da un insieme di unità semantiche (parole)
- formato da unità discrete (solo parole intere)
- proprietà di spostamento (produrre linguaggio anche in assenza di particolari stimolazioni: parlare di scoiattoli senza che ci siano…
- dotato di produttività: consente emissioni linguistiche sempre nuove
- struttura iterativa (utilizzo di congiunzioni che colleghino 2 o più frasi)e ricorsiva (frasi inserite come sotto-elemento…)
Linguaggio: abilità innata o appresa?
Col linguaggio costruiamo una realtà intorno a noi. E’ lo strumento attraverso cui il bambino diventa sociale, attraverso il linguaggio è possibile la conoscenza.
Se consideriamo il contesto, esiste un’influenza della cultura, quindi in parte è appreso. Inoltre la competenza linguistica, che si limita all’uso della grammatica, è superata dalla competenza comunicativa, che è l’abilità di usare il linguaggio nelle situazioni sociali.
Chomsky afferma che le analogie strutturali nelle varie lingue fanno ritenere che ci sia una grammatica universale
La teoria di Chomsky si occupa della sintassi, nella determinazione di algoritmi, che hanno una base innata e di natura universale.
COMUNICAZIONE NON VERBALE
Sistema vocale: tono, intensità, timbro
Sistema cinesico: movimenti del corpo, del volto e degli occhi.
Sistema di contatto
Cap.8
LA MOTIVAZIONE
Insieme dei fattori dinamici che determinano il comportamento (motivi che hanno indotto ad un’azione)
Il comportamento umano è motivato da una serie di cause ed è orientato alla realizzazione di vari scopi e alla soddisfazione di specifici bisogni mediante azioni o attività.
La motivazione è un processo di attivazione dell’organismo finalizzato alla realizzazione di un dato scopo in relazione alle condizioni ambientali.
I riflessi rappresentano il sistema più semplice di risposta dell’organismo a stimoli interni o esterni. Sono meccanismi innati, involontari e automatici. Svolgono un’azione di difesa o per l’omeostasi.
Gli istinti costituiscono sequenze congenite, fisse e stereotipate di comportamenti specie-specifici su base genetica in relazione a sollecitazioni ambientali.
Il bisogno indica una condizione fisiologica di carenza e di necessità (fame, sete, sesso)
La pulsione è la dimensione psicologica del bisogno ed esprime uno stato di disagio e di tensione.
E’ possibile avere un bisogno senza la relativa pulsione (avvelenamenti da CO2) o una pulsione senza il reale bisogno (obesi)
Gli incentivi sono oggetti e eventi esterni, rinforzi.
Le motivazioni primarie sono connesse con i bisogni fisiologici
Le motivazioni secondarie fanno riferimento a processi di apprendimento e influenzamento sociale.
C’è un’interdipendenza tra le motivazioni (caccia, pesca, giardinaggio…), Comportano l’elaborazione di un sistema di desideri (il desiderio è voler possedere ciò che piace), che è strettamente associato al sistema dei valori.
Desideri e motivazioni organizzano le conoscenze, le emozioni e le azioni di un individuo. Alimentano la direzione e l’intensità di una data condotta, attivano le risorse da investire per raggiungere il loro conseguimento e mantenerlo. Influenzano i criteri in base ai quali valutare le prestazioni di una persona.
Gerarchia dei bisogni:
- bisogni fisiologici (fame, sete…)
- bisogni di sicurezza (protezione…)
- bisogni di appartenenza (affetto, amore, identificazione…)
- bisogni di stima
- bisogni di autorealizzazione
Teoria degli incentivi per il bisogno primario della fame: l’individuo non è spinto a mangiare unicamente per una carenza energetica, ma dall’esperienza intrinsecamente gratificante del cibo (obesità). Il cibo, prima di essere un nutrimento, è un atto mentale e culturale.
Punti di vista sulla motivazione:
- teoria biologica: omeostasi
- concezione comportamentista: interazione tra pulsione e abitudine; certe situazioni ambientali diventano incentivi
- prospettiva cognitivista: la motivazione consiste in una meta da raggiungere. Giocano un ruolo importante le aspettative (tendenza al successo e paura del fallimento).
- Punto di vista scopistico: motivazione come scopo, attraverso l’unità TOTE. Chi ha una buona immagine di sé has copi elevati e un buon livello di autoefficacia (fiducia nelle proprie competenze)
- Punto di vista interazionista: le motivazioni sono suscitate, alimentate e regolate dalle interazioni con gli altri.
Analisi di alcune motivazioni secondarie
- bisogni di affiliazione: i soggetti particolarmente motivati dall’affiliazione sono caratterizzati da costante accondiscendenza, posizione gregaria di dipendenza. Elaborata la teoria dell’attaccamento nel bambino, la relazione d’amore.
- Bisogno di successo: assegnazione di scopi impegnativi ma realistici, bisogno di indipendenza e di affermazione di sé. Strettamente associato al modello familiare di allevamento.
- Bisogno di potere: ricerca di posizioni di comando, non teme competizione o confronto. Nasce da uno stato di disagio che si placa attraverso la strumentalizzazione degli altri. Distinti diversi tipi di leadership: autoritario, democratico, permissivo, caratterizzati da due profili: leade funzionale e leader socioemotivo.
La motivazione intrinseca consiste nello svolgere un’attività perché è gratificante per se stessa.
La motivazione estrinseca consiste nel compiere un’azione per conseguire qualcosa d’altro, come ottenere un premio: questo può ridurre l’originaria motivazione intrinseca.
Caratterizzzata da 4 costrutti fondamentali:
- Coerenza – (esempio della setta scampata alla fine del mondo annunciata grazie alle preghiere)
- Attribuzione – identificazione delle cause che hanno generato i comportamenti: attribuzioni interne per i propri successi e gli insuccessi degli altri e attib. Esterne per i propri insuccessi e i successi degli altri
- Bisogni-
- Aspettativa – grado di fiducia nelle proprie potenzialità
Cap. 9
LE EMOZIONI
Caratteristica prevalentemente umana che implica una reazione cognitiva e fisica ad uno stimolo. Ha un effetto sugli aspetti cognitivi con diminuzione della capacità di concentrazione, confusione, allerta e altera anche la sfera comportamentale.
Le emozioni primarie sono 6: ira, tristezza, paura, gioia, sorpresa e disgusto.
Dalla combinazione di queste derivano le secondarie: amore, gelosia, ansia, offesa, vergogna, rassegnazione, speranza, perdono.
L’emozione, con le sue modificazioni corporee, lo stato d’animo, certi pensieri, le modalità espressive, è l’esperienza di un soggetto che vive in una varietà di contesti sociali ed è inserito in una rete di rapporti psicosociali caratterizzati da culture, lingue, costumi, credenze.
Teoria periferica: l’evento emotigeno determina una serie di reazioni viscerali e neurovegetative avvertite dal soggetto; la percezione di queste modificazioni sono la base dell’esperienza emotiva. (ipotesi del feedback facciale)
Teoria centrale: centri di attivazione localizzati nella regione talamica (ipotalamo che coordina il SN simpatico e parasimpatico e amigdala)
Le teorie si sono dimostrate entrambe vere, ma entrambe parziali.
Teoria cognitivo-attivazionale è efficace: interazione fra componente fisiologica e psicologica.
Le emozioni dipendono dal modo con cui gli individui valutano e interpretano gli stimoli del loro ambiente; sono profondamente intrecciate con i processi cognitivi.
L’esperienza emotiva è un processo che viene manifestato all’esterno attraverso specifiche espressioni facciali, vocali, posturali e motorie ed è universale.
La competenza emotiva permette di gestire e controllare le reazioni, L’intelligenza emotiva è l’abilità nel percepire ed esprimere le emozioni.
Ci sono diversi script culturali in merito alla manifestazione delle emozioni: la cultura inglese ha un vocabolario ricco di termini che indicano stati d’animo, ma vige un comportamento controllato: si parla delle proprie emozione anziché mostrarle. Contraria è la cultura polacca.
Cap. 10
LA CULTURA
Concezione umanistica e antropologica:
- umanistica: attività che consente di coltivare l’animo umano
- antropologica: insieme variegato di costumi, credenze, atteggiamenti, valori, ideali, abitudini delle popolazioni. Concerne sia l’individuo che la collettività.
La cultura è dentro e fuori dalle menti nello stesso tempo. Non esiste da sempre, non costituisce un processo improvviso ma rappresenta l’esito di una serie di cambiamenti e progressi evolutivi. Con l’avvento del linguaggio si ha avuto a disposizione un efficace mezzo per fare cultura, e l’uomo è divenuto una specie simbolica, proprietà distintiva della nostra condizione.
Modelli culturali,( dominio specifici) con il loro relativo cambiamento
Simboli, con valore collettivo e connotazione sacra.
INTELLIGENZA E CREATIVITA’
INTELLIGENZA
Tante definizioni limitative: insieme innato di funzioni cognitive, adattative, immaginative. Capacità di ragionare, apprendere, risolvere problemi, comprendere idee e linguaggio. Adattamento all’ambiente, apprendere informazioni sull’ambiente, apprendere come usare le conoscenze nelle interazioni con l’esterno. Imparare ad imparare.
Distinta dal carattere e dalla creatività
Metodi di valutazione: test con confronto tra soggetti di età diversa o entro lo stesso gruppo di età, limitativi perché legati alla cultura e perché non valutano le diverse abilità.
PIAGET. Bimbo esploratore e scienziato. Considera l’intelligenza un processo costruttivo che va da un livello biologico a quello del pensiero logico formale, con un adattamento attivo che nasce da processi di assimilazione (le strutture intellettive si formano poco a poco) e accomodamento (cambiamento delle strutture mentali per incorporare nuove informazioni) a cui si arriva quando c’è una situazione di disequilibrio
VYGOTSKY. Visione psicoculturale: il bimbo ha già grande competenza sociale per cui sono fondamentali le influenze sociali
Fattori ereditari dell’intelligenza, basata su studi di gemelli separati e di bambini adottati: i fattori genetici non sono intesi come caratteri immutabili, perché suscettibili all’azione di fattori ambientali.
CREATIVITA’.
Espressione tipicamente (ma non esclusivamente) umana perché si fonda sul possesso del linguaggio a volte astratto. “Nuovo” e “utile” illustrano l’essenza dell’atto creativo.
Superdotati: risultato dell’azione fra fattori genetici e ambientali (abilità speciali + ambiente familiare). Posseggono curiosità per il nuovo, motivazione al successo, resistenza allo sforzo, coraggio, dedizione al compito, predisposti al pensiero avventuroso
Processo di scoperta per errori o tentativi, o per insight, inibito da forme di fissazione o di incubazione (stallo nel risolvere un problema o nel ricordare)
FREUD riteneva i desideri insoddisfatti come forza motrice della fantasia: spostamento della carica energetica da impulsi repressi alla creatività
Ruolo delle immagini nella percezione, nella memoria e nel pensiero creativo
STERNBERG. Relazione tra intelligenza e mondo interno, esterno e esperienza:
- intelligenza e mondo interno: riconoscimento del problema e selezione della strategia
- intelligenza e mondo esterno: adattamento all’ambiente, o cambiamento verso altro ambiente, o modificazione dell’ambiente iniziale
- intelligenza ed esperienza: capacità di trattare problemi nuovi e rendere automatiche le prestazioni apprese
INTELLIGENZE MULTIPLE
-logiche, linguistiche, numeriche, musicali, corporee, spaziali
-intelligenza emotiva: consapevolezza e controllo delle emozioni, riconoscimento delle emozioni altrui
PERSONALITA’
Insieme delle caratteristiche di un essere umano che ne definiscono l'individualità. Il comportamento di una persona non è solo il prodotto di una situazione ma è autogenerato e autoregolato. I risultati ottenuti determinano le aspettative e le strategie per raggiungere altre mete
CONOSCENZA
Consapevolezza e comprensione dei fatti, verità o informazioni ottenuti tramite l’esperienza o l’apprendimento. E’ l’autocoscienza del possesso di informazioni connesse tra loro. Esiste solo in quanto esiste una mente in grado di contenerla e un’intelligenza che possa utilizzarla. Diversa dalla semplice informazione.
Nell’ambito dell’elaborazione delle informazioni si è distinto tra:
- conoscenze proposizionali o dichiarative: definizione della cosa in senso enciclopedico
- conoscenze procedurali: acquisizione delle capacità, del come fare, di impostazione aristotelica
Ci sono diversi tipi di conoscenza:
- conoscenza esplicita: può essere trasferita tramite supporti (libri, cd…)
- conoscenza tacita: ciò che sappiamo, a volte difficile da esplicitare (intuizione)
- conoscenza incorporata: è quella forma di conoscenza che, pur esplicitata, non lo è in forma immediatamente riutilizzabile, ma richiede a sua volta conoscenza per essere estratta.
Impostazioni della conoscenza:
- Impostazione platonica: dietro la realtà che osserviamo esiste una realtà vera,a cui l’intelletto accede tramite la conoscenza (impostazione di filosofia, cognitivismo…)
- Impostazione aristotelica: la realtà vera è quella che osserviamo fenomenicamente; gli aspetti formali e sostanziali sono fusi nella realtà dei fenomeni; la conoscenza permette di estrarre dall’osservazione dei fenomeni i principi formali (fisica…)
INTELLIGENZA ARTIFICIALE
Sogno di realizzare macchine pensanti: che comunque richiederebbero intelligenza per comportamenti eseguiti dall’uomo
Difficoltà:
- traduzione linguistica automatica
- non solutori di qualsiasi problema
- mancanza di elasticità
- non in grado di comunicare
Regole generali per lo studio della conoscenza:
- attenzione sulla particolare relazione tra certi contesti e procedure (limitativa, comporta un controllo ossessivo delle condizioni sperimentali)
- generalizzazione più difficile ma più utile, perché più competa
Rappresentazioni della conoscenza
L’immagazzinamento ed il richiamo della conoscenza avvengono tramite il ricorso a differenti sistemi di memoria, interessati da processi diversi. Ci sono anche differenti forme di codifica:
- codifica proposizionale
- teoria del doppio codice, con codifica verbale (informazioni descritte tramite parole) e non verbale (tramite immagini mentali)
Linguaggio
- composto da un insieme di unità semantiche (parole)
- formato da unità discrete (solo parole intere)
- proprietà di spostamento (produrre linguaggio anche in assenza di particolari stimolazioni: parlare di scoiattoli senza che ci siano…
- dotato di produttività: consente emissioni linguistiche sempre nuove
- struttura iterativa (utilizzo di congiunzioni che colleghino 2 o più frasi)e ricorsiva (frasi inserite come sotto-elemento…)
La teoria di Chomsky si occupa della sintassi, nella determinazione di algoritmi, che hanno una base innata e di natura universale
Immagini mentali
Rappresentazioni interne della strutturazione spaziale degli eventi (rappresentazioni geometrico-spaziali e proposizionali).
- Sono immagazzinate sotto forma di figure geometriche non necessariamente connesse a informazioni di tipo simbolico (immaginasti). Gli esperimenti condotti sono relativi a:
- Effetto della distanza
- Effetto della grandezza
- Effetto della complessità figurale
- Interferenza tra immagini mentali e percezione visiva
- Connesse a rappresentazioni descritive (proposizionalisti)
Mappe cognitive
Si riferiscono all’organizzazione delle informazioni necessarie per pianificare gli spostamenti in un ambiente strutturato e non completamente accessibile alla percezione visiva immendiata. (ratti nel labirinto)
Concetti
Dipendono dalla facoltà innata degli esseri umani di raccogliere e sintetizzare gli innumerevoli stimoli provenienti dalla percezione della realtà esterna e utilizzarli per crearsi una propria rappresentazione astratta della realtà stessa.
Sono unità di pensiero che servono all’uomo per organizzare percezioni, pensieri e sensazioni.
Coinvolte le reti semantiche per la rappresentazione della struttura dei concetti
Modo per raggruppare insieme più oggetti o eventi (categoria). Fondamentale per l’attività cognitiva perché elimina la necessità di manipolare le entità concrete consentendo di di fare economia nell’ambito dei processi mentali.
Ricerche sull’impiego di particolari regole:
- affermativa: concetto definito da una sola proprietà (quadrato)
- congiuntiva: presenza contemporanea di 2 proprietà (triangolo rosso)
- disgiuntiva: presenza dell’una o dell’altra proprietà o entrambe(quadrato oppure verde)
- condizionale (se pentagono allora verde)
- bicondizionale: (triangolo se e solo se blu)
Nei compiti di apprendimento queste regole vengono apprese con difficoltà crescente
In che modo la conoscenza è effettivamente rappresentata e utilizzata?
Suddivisione ulteriore in 2 categorie:
- rappresentazioni di tipo dichiarativo: basate sull’utilizzo di simboli, danno luogo alla produzione di altri simboli
- rappresentazioni di tipo procedurale: innescate da ingressi di tipo fisico e consistono in modalità di associazione input-output che danno luogo a produzione di azioni
MEMORIA
Anche per la memoria gli studi neurobiologici hanno portato alla concezione attuale per cui questa attività si svolge attraverso l’interazione e la modulazione di sistemi e circuiti diversi, disseminati in ampie zone della corteccia, sviluppando il modello proposto dal neurofisiologo Donald O. Hebb, il quale ipotizza l’esistenza di una doppia traccia: una responsabile di una registrazione "a breve termine" della durata di pochi secondi o minuti, secondo le condizioni presenti, e una seconda che subentra alla prima e che codifica le informazioni in forma stabile e duratura. Hebb propose anche il "principio di convergenza sincronica" secondo il quale due cellule o sistemi che ripetutamente si mostrino attivi al tempo stesso tenderanno a divenire "associati" in modo che l’attività dell’uno faciliti quella dell’altro 1. Nel 1976 Il premio Nobel F. von Hayek postulava un’estesa rete di neuroni corticali, supporto delle connessioni e associazioni che costruiscono la memoria e che occupano estese aree della corteccia associativa.
La neurologia attualmente conferma queste ipotesi. Le singole memorie locali legate più direttamente a stimoli percettivi particolari (visivi, tattili, motori…) si sviluppano concatenandosi fino alle aree di associazione in uno sviluppo verticale. Vi è una gerarchia di memorie percettive che va dal sensorialmente concreto al concettualmente generale: alla base troviamo le memorie delle sensazioni particolari, alla sommità i concetti astratti che, per quanto acquisiti tramite l’esperienza personale, sono da quella divenuti indipendenti. Lo sviluppo procede dalle cortecce primarie (quelle sensoriali) alle cortecce associative, dove vengono integrate le elaborazioni più "alte", Le medesime aree corticali servono tanto per immagazzinare memoria percettiva quanto per elaborare informazioni sensoriali e questo ci mostra le stretta relazione che esiste tra percezione e memoria. Ricordiamo ciò che percepiamo e percepiamo ciò che ricordiamo
Fonte: http://appunti.buzzionline.eu/downloads/generale100607.doc
Autrice del testo : Laura
CAPITOLO 1: MENTI E MACHINE
Lo studio di possibili relazioni tra menti e makkine è nato cn l’idea di studiare i comportamenti umani e animali. Inizialmente c’era il dualismo cartesiano tra res cogitans e res extensa ke però aveva nn pochi problemi: nn si capiva quale fosse il punto di incontro di queste 2 parti dell’essere umano e nn si comprendeva cm una cosa puramente mentale potesse tramutarsi in azione fisica. Una possibile soluzione al dualismo cartesiano ke venne introdotta da Watson nel 1913 è il comportamentismo. Secondo questa teoria i comportamenti da studiare sn soltanto quelli osservabili in quanto ogni comportamento è dato in risposta ad un determinato stimolo ed è osservabile. Il comportamentismo però nn resse a lungo, crollò infatti già dopo la II guerra mondiale in quanto anch’esso rappresentava nn poki problemi: nn si capiva dv andassero a finire gli stimoli quando essi provocavano risposta anke molto tempo dopo la loro manifestazione; nn si comprendeva inoltre il fatto ke la risposta ad alcuni stimoli si protrasse anke a distanza nel tempo. In seguito per far fronte alla caduta del comportamentismo venne proposto il modello di Hebb di cui parlerò più avanti. Il crollo del comportamentismo avvenne anke a causa di nuove invenzioni tecnologiche e allo sviluppo di nuove discipline scientifiche. Tra le invenzioni tecnologiche è importante ricordare il computer digitale: esso, composto da una memoria, un unità aritmetico-logica atta a svolgere manipolazioni sui simboli e da un unità di controllo, rappresentò una vera e propria svolta nn solo nel campo della tecnologia ma anke nello studio del comportamento umano e animale. Tale makkina infatti, in grado di svolgere servendosi delle cifre binarie praticamente qualsiasi operazione sui simboli, è anke imprevedibile in quanto nn è in grado di distinguere i programmi dalle istruzioni, ecco allora ke si ipotizzò ke un computer digitale potesse essere paragonato alla mente. X quanto riguarda la nascita di nuove discipline scientifiche è importante ricordare la teoria matematica della computazione (1), la teoria cibernetica (2), la teoria dell’informazione (3) e l’intelligenza artificiale (4).
1 - La teoria matematica della computazione nacque nel 1936 ad opera di Turing; essa si basa sullo studio astratto dei processi logici ke stanno alla base di azioni ke operano su calcoli. Secondo Turing ogni calcolo ha delle proprietà fisse: necessita di processi, agisce su simboli, è composto da passi discreti: è quindi necessaria una memoria per ciascuno di questi passi. In base a queste caratteristiche Turing ideò il suo dispositivo di calcolo. Uno dei risultati + importanti dell’opera di Turing è un teorema chiamato anke della fermata secondo cui nn è possibile prevedere quando una makkina ke esegue calcoli si fermerà: ecco quindi una macchina imprevedibile ke ovviamente per andare avanti all’infinito deve avere una memoria potenzialmente illimitata. Nella teoria matematica della computazione le makkine si dividono in automi infiniti (illimitate uscite, entrate e stati interni) e finite: le infinite si distinguono in digitali se le infinite possibilità possono essere contate, analogiche se no. La makkina di Turing è analogica e si capisce cm nessun computer da solo possa essere illimitato, ma se ad esso si associa una memoria illimitata ke aggiorni i programmi è possibile avere una makkina di Turing. Alcuni hanno dunque ipotizzato ke la mente imprevedibile fosse una macchina di Turing mentre altri sostengono la tesi ke la mente derivi dall’attività di una makkina analogica=il cervello.
2 - Un’altra disciplina scientifica è la cibernetica e cioè lo studio delle analogie tra il comportamentismo umano/animale e makkine.
3 - La teoria dell’informazione introdotta da Shannon è importante in quanto si basa sulla misurazione di una caratteristica, cm appunto l’informazione nn direttamente osservabile e senza fare uso di processi biologici. La teoria dell’informazione si basa sul fatto ke essa è caratterizzata da simboli cn una certa probabilità di essere trasmessi e la misura dell’informazione viene misurata con la sorpresa derivata dalla trasmissione dei segnali. Dopo questa teoria molti psicologi tentarono di studiare comportamenti nn osservabili attraverso metodi nn utilizzati nella biologia e nella fisica.
4 - Un’altra disciplina scientifica importante è l’intelligenza artificiale il cui scopo è costruire una makkina intelligente. Ci sn 2 indirizzi per quanto riguarda l’ I.A.: I.A. forte dice ke è probabile costruire una makkina intelligente: I.A. debole sostiene ke si dovrebbe pensare a potenziare le makkine già esistenti. X verificare l’effettiva intelligenza di una makkina Turing ha elaborato un test chiamato appunto test di turing; esso consiste in un uomo chiuso in una stanza ke attraverso un computer comunica cn una makkina in un’altra stanza; se l’uomo solo attraverso le risposte della makkina riesce a capire in ke stanza essa sia, allora la makkina nn è intelligente. Da allora l’I.A. ha fatto molti passi avanti tra cui la creazione nel 1965, di Eliza, la prima psicoterapeuta virtuale. X essere intelligenti le makkine devono possedere cioè informazioni, deduzione e un’interfaccia utente. Visto il ruolo fondamentale della conoscenza nell’approccio simbolico è nata, nel 1979 una vera disciplina della conoscenza: il cognitivismo.
Il modello di Hebb
Questo modello fu introdotto nel 1949 cm alternativa al comportamentismo x spiegare il comportamento. Hebb sosteneva ke bisognasse studiare il cervello ed in particolare i suoi neuroni; i quali sn visti cm facenti parte di assemblee neurali. Lo stimolo eccitatorio ke colpisce un neurone si diffonde rapidamente a tti i neuroni dell’assemblea a causa dei forti legami sinaptici. Hebb si occupò anke di spiegare il xké del fatto ke certe informazioni rimanessero nella mente anke x molto tempo arrivando a dire ke nelle assemblee neurali c’erano dei circuiti riverberanti dv l’eccitazione continuava a girare. X spiegare il motivo della formazione delle assemblee neurali hebb introdusse il concetto di facilitazione sinaptica; esso consiste nel fatto ke la forza dell’eccitazione aumenta di volta in volta dalla risposta di un neurone indotta dall’eccitazione di un altro= le reti neurali imparano dall’esperienza. Dal modello di hebb in poi in molti hanno provato a costruire modelli di reti neurali. Uno di questi modelli è quello di McCulloch-Pitts ke ha un andamento periodico x studiare questo modello e vedere quanto esso fosse effettivamente rappresentativo della mente vennero studiate le loro capacità di riconoscimento sequenze di segnali. Da questi studi le sequenze quando erano chiaramente esplicite, questi modelli nn erano invece in grado di fare astrazioni, cosa ke la mente invece fa. X questo motivo il modello McCulloch-Pitts nn può essere quello della mente.
CAPITOLO 2: GLI APPROCCI UTILIZZATI DAL COGNITIVISMO
Il cognitivismo, a differenza del comportamentismo, studia il comportamento analizzando stimolo=>organismo=>risposta. Gli approcci utilizzati nell’ambito del cognitivismo sn fondamentalmente 3=> approccio computazionale (1), approccio connessionista (2) e approccio enattivo (3).
1) L’approccio computazionale consiste nel paragonare la mente a un computer digitale e le operazioni mentali a dei calcoli ke agiscono su simboli. Questo approccio è rinforzato dal fatto ke la mente utilizza vere e proprie inferenze computazionali, compie operazioni matematiche e logiche, utilizza concetti, simboli e linguaggio. I vantaggi dell’approccio computazionale sn, dal punto di vista filosofico il superamento del dualismo cartesiano e il nn dover + ricorrere a modelli cm l’homunculus; dal punto di vista della psicologia e dell’I.A. il vantaggio è ke è possibile creare un modello computazionale dei comportamenti cognitivi. L’approccio computazionale presenta però anke dei problemi: problemi di complessità in quanto i processi mentali sn troppo complessi per essere spiegati tramita modelli computazionali e inoltre alcuni processi nn sn artificialmente rappresentabili; problemi di implementazione in quanto tale approccio nn è in grado di spiegare cm e xké vengano utilizzati i processi computazionali e xké molti processi cognitivi dipendano dal contesto; problemi di decomposizione in quanto se i processi sn computazionali devono poter essere decomposti ma nn c’è alcuna prova di questo. A far crollare del tutto l’approccio computazionale fu l’argomanto della stanza cinese (1980 Searle) da cui si dedusse ke la semplice manipolazione di simboli nn porta alla comprensione del significato di essi.
2) Un altro approccio utilizzato nell’ambito del cognitivismo è quello connessionista: secondo questo alla base della conoscenza di un determinato fenomeno concorrono più categorie mentali ke unitamente permettono la conoscenza: ogni categoria analizza il suo ambito dal punto di vista microscopico x poi, nell’insieme, dare un risulato macroscopico. X creare un modello ke rifletta l’approccio connessionista si è pensato di utilizzare modelli di reti neurali, sostituite appunto da neuroni connessi tra loro, e osservare se il loro comportamento a livello macroscopico potesse essere assimilato a quello umano. I tipi di apprendimento utilizzati dalle reti neurali sn: supervisionato, nn supervisionato, con rinforzo, diretto ed evoluzionistico.
3) L’ultimo approccio utilizzato nell’ambito del cognitivismo è quello enattivo: esso è basato sull’idea ke la mente si comporti cm un gruppo di animali ke possiedono un’intelligenza collettiva; a questo proposito è possibile paralare di vita artificiale e cioè lo studio su alcuni programmi artificiali ke si comportano cm organismi viventi: le formiche di Langton sn in grado di collaborare tra loro x procurarsi cibo e portarlo nel nido.
Sempre riguardo agli approcci utilizzati nel cognitivismo si può parlare di emergenza: essa è una situazione ke può dipendere dall’osservatore, dai diversi livelli di spiegazione, da entità coerenti o essere intrinseca. Dunque concludendo possiamo dire ke la mente potrebbe essere una macchina analogica purchè si riesca a controllare l’emergenza, nn può essere invece digitale.
CAPITOLO 3: LO STUDIO DEL FUNZINAMENTO DALLA MEMORIA
Cm sappiamo, gli esseri umani nn ricordano ogni cosa, spesso infatti dimenticano determinate info; x questo motivo la memoria è un interessante ogg di studio. È possibile studiare la memoria sia in contesto ecologico sia in laboratorio: lo studio in contesto ecologico è molto importante in quanto permette di indagare le componenti emotive di un ricordo, tuttavia esso presenta una serie di problemi in quanto nn è generalizzabile, nn è ripetibile e nn consente di analizzare tutte le variabili. Lo studio in laboratorio è dunque da preferire se nn si vogliono analizzare le componenti emotive. X condurre uno studio sulla memoria in laboratorio è necessario prima di tutto formulare i principi alla base di essa, poi creare modelli su alcuni procedimenti, fare ipotesi sperimentalmente verificabili e infine passare all’esperiemto. I compiti sulla memoria differiscono tra loro sia per il tipo di risposta ke può essere di richiamo se fa riferimento a informazioni acquisite durante l’esperimento e di riconoscimento se si riferisce a informazioni acquisite precedentemente; sia per il tipo di informazioni fornito che può essere semantico se fa riferimento a conoscenze generali, episodico se si riferisce a una conoscenza definita, uno dei compiti principali utilizzati x lo studio della memoria e il richiamo seriale: esso consiste nel presentare al sogg x un dato periodo di tempo una lista di parole e verificare quante egli se ne ricorda trascorso il tempo di latenza. Il richiamo sriale è un compito di richiamo episodico in cui le parole vanno però riferite nel giusto ordine. Il richiamo libero invece è un altro compito simile al precedente cn la differenza ke le parole possono essere riportate in qualsiasi ordine. Da questi esperimenti, se utilizziamo il tempo di latenza cm VI e il n° di parole corrette come VD, è possibile costruire una curva dell’oblio in cui si è visto ke + aumenta il tempo di latenza + diminuiscono le parole ricordate. Ci sn 2 tipi di curva dell’oblio: quella dv cn tempo di latenza 0 le parole ricordate sono il 100% e quella dv invece, a causa dell’elevato n° di info da ricordare nn è così; si è ipotizzata dunque l’esistenza di una memoria a breve termine nella quale ci sono info apprese da poco per essere subito utilizzate. Questo tipo di memoria ha una capacità illimitata dove le info nuove scacciano via le vecchie. Nel 1956 Miller trovò, attraverso gli esperimenti sulla memoria, il n° magico cioè la capacità della memoria a breve termine ke consisterebbe in 7+/-2 chunks, un’ulteriore prova dell’esistenza della memoria a breve termine è data dalla curva di posizione seriale ke dimostra ke in una lista vengono ricordati + facilmente i primi elementi poiké passati nella memoria a lungo termine e gli ultimi in quanto ancora in quella a breve termine. Per quanto riguarda la durata della memoria a berve termine è stata calcolata cn il compito interferente ke consiste nel dare una lista da memorizzare, distrarre poi cn un altro compito cm contare all’indietro, x poi kiedere le componenti della lista; da ciò è emerso ke la durata media della memoria a breve termine nn supera i 20/30 sec. Attraverso alcuni esperimenti, nel 1960, Sperling dimostrò l’esistenza di una memoria ultrabreve: egli si servì di un supporto ottico: mostrava al sogg per - di un sec 12 lettere in fila per 4 poi kiedeva cosa essi ricordassero; molti sogg dissero di aver memorizzato ogni riga ma di nn essere in grado di rikiamarla. Egli allora introdusse un senale acustico ke doveva segnalare la riga da ripetere, i risultati migliorarono notevolmente. La memoria ultrabreve esiste per tti i sensi quindi queste memorie vennero kiamate registri sensoriali. I registri sensoriali dipendono da una piccola eccitazione provocata da stimoli esterni e nn superano i 2 sec di durata, hanno capacità relativamente grandi ma breve durata. Nel 1968 Atkinson e Shiffrin idearono il modello della memoria imput sensoriale = registri sensoriali = memoria breve termine = memoria lungo termine; essi nn si occuparono di memoria a lungo termine, solo di quella a breve termine ke nel loro modello, è una specie di fila dove le info nuove ……….. quelle vecchie e il passaggio di una info nella memoria a lungo termine dipende da quanto essa ha passato in quella a breve. Un modello alternativo di memoria è quella di Crack e Lockart: essi sostenevano ke la memoria fosse < o > a seconda di cm un info veniva elaborata e dai legami somatici cn altri item. Dimostrarono ciò cn degli esperimenti in cui veniva presentata una lista di parole e poi, x facilitare il ricordo venivano kieste cose strutturali, fenomeniche e semantiche: si è visto ke le parole ricordate cn riferimenti semantici erano di +. X quanto riguarda la memoria a lungo termine, sorgono 2 domande: xké a volte c’è una cattiva performance di essa?; è divisa in altre strutture? X quanto riguarda la prima domanda, l’oblio è dato da 2 cause: oblio spontaneo se le info si deteriorano senza un particolare motivo, e l’interferenza che determina il deterioramento delle info a causa di altre info ke possono essere preesistenti nella memoria = proattiva; o inserite dp = retroattiva. X quanto riguarda le suddivisioni in sistemi di memoria, è famosa quella di Turing ke vede una memoria episodica ke ricorda info acquisite cm il linguaggio senza particolari contesti e la memoria proceduale e contiene procedimenti atti alla vita quotidiana. Turing fa anke una gerarkia delle memorie dicendo ke prima c’era solo quella proceduale ke serve x vivere. Poi è arrivata quella semantica x il linguaggio e infine l’episodica. Turing vede questi sistemi di memoria divisi, tuttavia si nota un interazione tra l’episodica e la semantica poiché essa deve dividere in categorie le informazioni apprese. Un altro aspetto interessante nello studio della memoria è il “punta della lingua”, esso è dato dall’inibizione indotta dal recupero. Questo fenomeno consiste nel fatto ke quando devo recuperare un info appartenente ad una determinata categoria e ne recupero un'altra, le info di quella categoria sn temporaneamente inibite x cui è difficile rikiamarne altre; fortunatamente un tipo di info appartiene a + di una categoria.
CAPITOLO 4: ASPETTI BASE DELLA PERCEZIONE VISIVA
Xcepire significa attribuire caratt fisiche cn i sensi a stimoli provenienti dall’esterno. X studiare la xcezione bisogna porsi 2 domande: xké xcepiamo e cm xcepiamo. Alla prima domanda è facile rispondere: noi xcepiamo xké ricerkiamo sempre la chiarezza nell’ambiente ke ci circonda, e poiké è necessario x la vita. Alla domanda cm xcepiamo invece la risposta è molto + complessa: secondo la teoria ingenua i nostri sensi nn fanno ke registrare l’oggettiva realtà; secondo la scienza e la psicologia invece nn è così: la realtà è infatti fredda e incolore e ciò ke xcepiamo è frutto di una complicata elaborazione della nostra mente. Lo stimolo si divide in: distale ke è quello ke emana direttamente l’ogg ke viene xcepito; prossimale cioè ciò ke giunge ai sensi e xcetto cioè ciò ke viene xcepito cm realtà. In base a questo si può facilmente notare cm spesso la realtà e la xcezione nn coincidano. Sulla base di tto ciò è possibile fare 2 tipi di errore: dello stimolo quando descrivo ciò ke sò e nn ciò ke vedo, dell’esperienza quando dò a stimoli distali o prossimali, caratt proprie solo del xcettivo. Questi errori portano una serie di conseguenze: 1 - vedo ciò ke nn c’è, 2 - nn vedo ciò ke c’è, 3 - vedo + cose in una, 4 - vedo cose impossibili, 5 - vedo cose diverse da ciò ke c’è. Tto questo sta a significare ke la xcezione è frutto di una complessa elaborazione della mente. Ci sono alcune teorie sulla xcezione: la teoria empiristica sostiene ke la xcezione sia frutto di sensazioni elementari apprese in precedenza: ogni impulso genera sensazioni elementari ke vengono elaborate in sistemi più complessi cm la memoria; la teoria new look la quale sostiene ke la percezione causata da impulso emotivo (bimbi poveri + monete), la Gibson (1966) ke sostiene ke vengano colti stimoli in vista di un raggiungimento di un fine; la computazione kiamata così in quanto la xcezione è vista cm una serie di stadi dv si svolgono calcoli: Primal Sketch; analisi superficiale 2 ½ Dimensional Sketch= analisi più approfondita, ma nn è descritto il riconoscimento. Infine c’è la teoria della Gestalt ke rifiuta l’empirista sostenendo ke la xcezione è qui e ora e si basa su alcune leggi; 1) il tutto è + della somma delle parti; 2) il principio della semplicità; 3) le regole dell’organizzazione xcettiva sn quelle della vicinanza approssimata, della chiusura, della continuità della somiglianza e dell’esperienza ke è però secondaria.
Organizzazione figura sfondo: la mente tende a segmentare il campo visivo in elementi, tra cui le figure e lo sfondo ke presentano alcune proprietà: la figura è spazialmente collocata e ha una forma mentre lo sfondo è amorfo e nn ha una precisa collocazione; il colore della figura risalta di +. A parità di condizioni valgono le leggi dell’inclusione, convessità, relatività, simmetria, orientamento e articolazione senza resti, legata alla xcezione c’è anke la xcezione della profondità, in particolar modo tendiamo a vedere in secondo piano oggetti + piccoli, incompleti, sopra il foglio e attribuiamo a quadrati o trapezi irregolari tridimensionali; le ombre inoltre danno volume. La costanza xcettiva: anche se muta la posizione, e se avvengono cambiamenti sulla retina, ci sn le costanti xcettive ke ci permettono di distinguere cmq un ogg. Costanza della forma, delle dimensioni e del colore.
CAPITOLO 5: I PROCESSI ATTENTIVI
Lo studio dei processi attentivi è importante sia x costruire le interfacce uomo-macchina, sia x vedere cm gli esseri umani xcepiscono e selezionano gli stimoli esterni. I processi attentivi vengono studiati cn esperimenti su esseri umani e cn l’utilizzo di modelli. I compiti utilizzati in questo ambito sn di attenzione selettiva, divisa e vigilante. L’attenzione è descritta cn diverse metafore: metafora del filtro: l’attenzione è vista cm un filtro che seleziona un info x volta da far passare nella memoria a breve termine. Questa è la teoria del filtro ke vede appunto un filtro a capacità limitata ke fa passare un’info x volta; questo tipo di metafora è usato soprattutto per i compiti di selezione. Dalla metafora del filtro derivano altre teorie cm quella del filtro attenuato ke vede l’esistenza di + filtri; ognuno dei quali fa passare determinate info. Il passaggio di un info nella memoria a breve termine dipende dalla forza di trasmissione del segnale per l’enfasi. Un’altra teoria derivante dalla metafora del filtro è quella di Deutsch e Deutsch (1963) la quale ipotizza ke il filtro si trovi nella memoria a breve termine e regoli il passaggio in quella a lungo termine. Le teorie legate alla metafora del filtro sn poi cadute xké alcune di esse nn erano falsificabili e xké nn è provata la presenza di questo filtro. Un’altra metafora utilizzata nello studio dei processi attentivi è quella del serbatoio: secondo questa teoria c’è un serbatoio ke contiene le varie competenze attentive. Questa metafora è utile x i compiti di attenzione divisa. Riguardo a questa metaforasi distinguono i compiti automatici ke vogliono meno abilità attentive in quanto già appresi completamente; e i compiti controllati. Un compito controllato può diventare automatico cn l’allenamento. L’apprendimento di abilità si articola in 3 fasi: nella fase iniziale esso è veloce e continuo, nella fase centrale è + lento ma sempre presente, nella fase finale nn c’è + apprendimento. Questa teoria tuttavia risulta incompleta in quanto è difficile svolgere 2 compiti automatici insieme se essi vogliono lo stesso registro linguistico. X ovviare questa mancanza è stata introdotta la teoria delle risorse attentive specifike x ogni registro linguistico. Questa teoria è molto usata x le interfacce multimediali. Un’altra metafora è quella del fascio di luce, utilizzata solo nei compiti di attenzione visiva. Essa vede l’attenzione cm un fascio di luce ke illumina una particolare zona del campo percettivo. Questa è stata formulata studiando i movimenti oculari (saccadi)e le fissazioni. Parlando della teoria del fascio di luce è necessario porsi 2 domande: ki guida i movimenti oculari? ki stabilisce dove va diretto il fascio di luce? La risposta a questa ultima domanda nn è semplice in quanto nn è sempre verso la fovea (guardare cn la coda dell’occhio). X rispondere bisogna dunque dividere l’attenzione in 2: processi attentivi = l’attenzione vera e propria verso qualcosa; Processi preattentivi = dirigono l’attenzione verso uno stimolo in un determinato istante. Viene dunque da kiedersi ki guida i processi preattentivi: si è ipotizzato ke essi fossero guidati dalle caratteristiche dello stimolo = Bottom up; e dalle aspettative del sogg: top down. Per studiare i Bottom up si fanno compiti di ricerca visiva in cui il sogg deve cercare un simbolo tra vari distrazioni. Uno dei paradigmi legati al Bottom up è quello dei tempi di reazione. X vedere questo paradigma si kiede al sogg di verificare un elenco di elementi se è presente un elemento con determinate caratteristiche dopodiké si confronta il tempo di risposta cn il n° di elementi presenti. Da questo emergono 2 elaborazioni: Parallela se la scena è stata guardata nel suo insieme, seriale se s’è preso in esame elemento per elemento. Secondo alcuni ricercatori l’indipendenza del tempo di reazione dal n° di simboli presenti è data dal fatto ke alcune caratteristiche ke danno diversità al simbolo da cercare, emergono + di altre; queste caratt sn il colore, l’orientamento e il parallelismo. Nn emergono invece particolarmente forma e dimensione xké caratt composte. Le caratt composte si dividono in separabili e integrali sulle quali si costruiscono le interfacce. X verificare l’influenza delle aspettative dei sogg nei processi preattentivisi usa lo spatial cueing task: Il sogg fissa la casella centrale di una fila di 3 e deve attendere ke compaia un simbolo o in quella a destra o in quella a sinistra ke egli dovrà riconoscere schiacciando un pulsante. Prima ke compaia il simbolo, nella casella centrale appare una freccia verso destra, sinistra o verso l’alto dai risultati è emerso che i sogg erano influenzati dalle frecce. L’ultima metafora è quella della lente cn lo zoom e l’effetto navon che illustra cm in un simbolo congruente i dettagli vengano visti + facilmente ke in una situazione di incongruenza mentre i tempi per riconoscere il simbolo generale sn gli stessi.
CAPITOLO 6: SOLUZIONI DI PROBLEMI E PENSIERO
La teria gestalt sulle soluzioni di problematike dice ke il problema sta nel fatto ke gli ogg percepiti e i loro rapporti nn sn in forma buona; il sogg deve quindi operare una ristrutturazione x far si ke i rapporti tra gli elementi siano in una forma buona. Il principale ostacolo alla ristrutturazione è la fissità funzionale e cioè dare a un elemento sempre la stessa funzione. Un’altra teoria è quella comportamentista la quale sostiene ke la soluzione a un problema è data dal rinforzo di alcuni rapporti: stimolo-risposta. Un aspetto interessante della soluzione dei problemi. I problemi di trasformazione sn caratterizzati da situazioni iniziali, finali e mezzi x raggiungere lo stadio finale. S. e N. costruirono modelli riferiti a questi x migliorare le prestazioni umane nella soluzione dei vari problemi. S. e N. In questi esistenti confrontarono l’operato umano cn quello artificiale ed esaminarono i ragionamenti verbali del sogg. E giunsero a queste conclusioni possibili: tanto è + difficile giungere alla film il problema è + complesso sia dalle capacità del soggetto sia dalla difficoltà del problema stesso, spesso per risolverlo ci si affida alla euristide.
IL PENSIERO: Ragionamento deduttivo; dal generale al particolare ci sono 2 tipi di regole deduttive modus modens: a=b; a modus tollens: a;b prima si pensava ke il pensiero fosse basato sulla logica formale ma sn emersi alcuni problemi: asserzioni erronee cn premesse valide; influenza delle premesse sui sogg. In conseguenza a ciò è stato elaborato il sistema dei modelli mentali che asserisce appunto che i sogg nn siano influenzati da premesse ma da modelli mentali. È stata introdotta anke la logica naturale ke nn ha alcune funzioni della formale (modus tollens) e serve x la vita quotidiana. Errori di giudizio: sn il risultato di distorsioni o errori sistematici dovuti principalmente alle euristiche usate x velocizzare i tempi. Si possono avere errori di giudizio sia nella raccolta delle infor cn l’euristica della disponibilità, sia nell’elaborazione di info con l’euristica della rappresentazione e ancoraggio, sia nell’emissione del giudizio. L’euristica della rappresentatività è una scorciatoia di pensiero ke semplifica il giudizio e può originare 2 tipi di errore: insensibilità probabilità di base e fallacia della congiunzione.
CAPITOLO 7: LOGICA PROCESSI DI RAGIONAMENTO E USO DEI CONCETTI
La logica, oggi chiamata matematica a causa dei suoi metodi, sta alla base del ragionamento e affronta una seria di problemi: 1) Sintattico - serve a trovare i vari simboli impiegati nel ragionamento; 2) Semantico: da i significati ai simboli; 3) Pragmatico – individua il fine pratico.
I livelli della logica sn 2: calcolo preposizionale ke analizza le proposizioni verificandone la verità e la falsità e il calcolo del predicato ke analizza le proprietà grammaticali. Nel calcolo preposizionale ci sn le proposizioni vere e proprie nelle quali bisogna indagare la verità e la falsità poi ci sn i connettivi ke servono a unire + proposizioni insieme dando un significato preciso. Una proposizione è vera se la sua asserzione è presente nell’universo, in caso contrario nn lo è. Per le proposizioni connesse ci sn varie possibilità presentate nelle tabelle di verità. Dal confronto cn le tabelle di verità e la performance di alcuni esseri umani si è scoperto ke essi utilizzano i connessivi in maniera differente. L’esperimentoutilizzato quello dell’apprendimento di concetti: lo sperimentatore pensa ad un concetto e da degli indizi al sogg utilizzando dei connettivi (quadrato oppure rosso); il sogg sulla base di alcuni pattern visivi deve indovinare cosa ha pensato lo sperimentatore. Da questo è emerso l’ordine cn cui si hanno i tempi di risposta <: affermativi, congiuntivi, disgiuntivi, condizionali, bicondizionali. Dopo questa scoperta si è ipotizzato ke anke i concetti nn fossero utilizzati cm nel mondo digitale, ipotesi confermate dalle ricerche della Rosch. La Rosch ipotizzò ke ci fossero dei concetti sovraordinati (uccelli), concetti base (canarino) e concetti subordinati (il canarino titti) e ke l’appartenenza di un determinato ogg ai concetti sovraordinati dipendesse da quanto esso si avvicinava al prototipo della categoria dato dalla media degli esemplari contenuti lì fino a quel momento. X vedere questa ipotesi vennero fatti esperimenti sia di valutazione soggettiva dove un sogg deve decidere quale modello vada bene per una determinata categoria sia di memoria semantica calcolando i tempi di risposta nell’associare un ogg a una categoria. Questa teoria funziona solo x le categorie linearmente separabili, le teorie basate sui prototipi si scontrano cn quelle linearmente separabili. Altre teorie sn quelle sugli esemplari. Gli esperimenti sulle categorie hanno dimostrato ke gli esseri umani si comportano in modo diverso anke x queste. La logica e la matematica funzionano cn le reti semantiche in cui ci sn dei nodi rappresentati dai concetti e dalle connessioni tra i nodi. L’attivazione e la diffusione sn direttamente proporzionali alla distanza tra i nodi.
CAPITOLO 8 MODELLI FUNZIONALI DELLA MEMORIA.
Alla memoria umana sn associati alcuni effetti: list length effect, list strength effect, mirror effect e normal roc slope effect.
Il list length effect si manifesta sia nei compiti di rikiamo ke di riconoscimento. Secondo questo effetto la performance di un sogg diminuisce cn l’aumentare degli items da ricordare; da ciò si vede cm le nuove info siano influenzate da quelle già presenti in memoria.
Il list strenth effect riguarda solo i compiti di rikiamo. Secondo questo effetto gli items + forti si ricordano + di quelli deboli. Gli items forti sn quelli ke ricorrono + volte nella vista. Da questo si deduce ke a memorizzare nn ci sn problemi, il problema è rikiamare alla memoria. Gren e Swets hanno introdotto la teoria della detenzione del segnale x studiare l’efficienza di un rivelatore di segnali. In questo esperimento il sogg doveva riconoscere un segnale disturbato da rumori e sn emersi diversi risultati. Successi: il segnale viene riconosciuto; falsi allarmi se il sogg riconosce il segnale quando c’è solo rumore, colpi mancati ke è il contrario e reiezioni corrette. Dalle proporzioni tra successi e falsi allarmi si costituisce la curva di Roc la cui massima distanza dalla diagonale ke passa per il centro del grafico rappresenta la prestazione di un rivelatore di segnale ed è kiamato Normal roc slope.
Da questo deriva il Normal roc slope effect secondo il quale la varianza della distribuzione dei disturbatori è sempre inferiore a quella dei target il ke significa ke alla memoria basta poco per funzionare in maniera efficiente.
Un altro effetto legato alla memoria è il mirror effect secondo il quale cn il migliorare della performance aumentano i successi e diminuiscono i falsi allarmi, in base a questo si può ipotizzare ke la memoria abbia un categorizzatore. Attualmente i modelli quantitativi del funzionamento della memoria nn danno info su un singolo sogg ma danno andamenti medi. I modelli quantitativi di memoria si dividono in 3 tipi: modelli a immagini, modelli matrice e modelli olografici. In tutti questi modelli le cose da memorizzare consistono in una serie di n° kiamati anche vettori ke indicano se un ogg ha o no una determinata caratteristica, Nei modelli a immagini la memoria è vista cm un magazzino contenente delle imma cn le quali la nuova info si deve confrontare, il modello a immagine + famoso è il Minerva 1 dv l’info arriva e si confronta attraverso dei n° (1=presenza caratteristica, -1=assenza, o nn si sa) cn le imm presenti nella memoria e in base al fatto ke la concordanza totale cn gli altri items superi o no una certa soglia si decide se catalogare l’ogg cm già conosciuto o mai visto. Questo modello permette di essere impiegato nei compiti di riconoscimento x rappresentare il lisc length effect. I modelli a matrice invece ke funzionano cn le imm, funzionano cn delle tabelle di caratteristiche cn le quali viene confrontato e catalogato l’ogg. Questo tipo di modello presenta problemi quando gli items da memorizzare sn molti anche xkè ha bisogno di un alto grado di precisione. Sia i modelli a immagine ke quelli a matrice hanno bisogno di troppa memoria x un essere umano. I modelli olografici si rifanno all’olografia ottica e si dividono in modelli olografici in senso stretto e modelli connessionisti. I modelli olografici in senso stretto nascono dal fatto che si è scoperto che sui vettori si possono fare 2 operazioni: convulsione e correlazione. La memoria qui è costituita da un solo vettore ke ha le stesse dimensioni delgi item da memorizzare però i vettori devono noselici cioè con correlazioni reciproche nulle. I modelli connessionisti usano le reti neurali cn unità e connessioni tra le unità dv l’ologramma rappresenta i pesi. Il problema dei modelli connessionistici è l’interferenza catastrofica ke però negli esseri umani nn c’è. Essa è la diserzione delle info precedenti a causa di un nuovo apprendimento. Gli esperimenti di Barnes e Underwood hanno mostrato ke negli esseri umani essa nn c’è. Da tto ciò si può concludere ke la memoria nn è un serbatoio ma agisce in modo ricostruttivo in funzione degli scopi e la sua efficienza è questione di organizzazione.
CAPITOLO 9: IL LINGUAGGIO
Il linguaggio è la capacità di legare suoni e significati attraverso regole grammaticali. La comunicazione è indipendente dall’abilità linguistica. Hockett ha definito le proprietà del linguaggio: esso è formato da unità semantiche e composto da unità discrete, nn dipende da 1 stimolo, è dotato di produttività ed è una struttura interativa e ricorsiva. Ci sn varie discipline ke studiano il linguaggio: psicolinguistica, neurolinguistica e sociolinguistica. I localizzazionisti sostengono ke la parte del cervello implicata nel linguaggio sia l’area di Broca ke si trova nell’emisfero sinistro. Il linguaggio può avere alcuni disturbi: afasia è il termine x indicare un problema legato al linguaggio dovuto al fatto ke alcune parti del cervello sn danneggiate, c’è l’afasia di Broca, di Wernike e da conduzione. Saussure ha studiato i rapporti tra unità linguistike indipendentemente dal loro significato e ha scoperto ke esse nei discorsi prendono un determinato ordine, i sintagmi e al di fuori dei discorsi sn contenuti nella memoria cn rapporti associativi. È sbagliato considerare il linguaggio umano cm un evoluzione di quello animale. Esistono 3 sistemi di linguaggio: kiuso, semikiuso, aperto proprio solo degli esseri umani.Vediamo ora le principali teorie sul linguaggio.
La teoria comportamentista di Skinner sosteneva ke il linguaggio fosse frutto di rinforzo sul bambino da parte degli adulti ke premiano le frasi corrette. Tuttavia questa teoria decadde xké prima di tto questo tipo di rinforzo nn c’è e poi xkè così i bambini nn potrebbero pronunciare frasi mai sentite.
Un’altra teoria è quella basata sul cognitivismo tradizionale. Essa sostiene ke il linguaggio sia costituito da una serie di frasi corrette e ke si impari sia attraverso regole profonde innate, uguali x tti e quindi indipendenti dal contesto linguistico sia xkè la parlata nn è esente da errori.
Un’altra teoria è quella connessionista della quale ricordo il modello di Rumelhart e McCelland. Questo utilizza reti neurali in cui l’ingresso è un verbo inglese al prensente e l’uscita il passato. L’apprendimento è di tipo supervisionato e si è visto ke tale sistema funziona xkè prende le regolarità statistiche.
Piaget poneva l’apprendimento del linguaggio tra lo stadio sensomotorio e il preoperativo e sosteneva ke fosse prioritario al movimento in quanto nn implicando componenti fisiche lo sviluppo dipende da altro. Bruner da i motivi x cui il linguaggio contribuisce allo sviluppo cognitivo. I bambini sn spinti a cercare il significato delle parole, il dialogo da sempre nuovi spunti x la mente, la scuola spinge i bambini a sperimentare cose nuove nella lingua, la scienza usa il linguaggio e il conflitto tra le diverse modalità di rappresentazione funge da punto per lo sviluppo intellettuale.
CAPITOLO 10: PERCEZIONE VISIVA ASPETTI AVANZATI
Le teorie sulla xcezione visiva si possono catalogare sia riferendosi ai pattern di riconoscimento, si xcepisce solo dalle caratteristiche dell’ogg o anke x stati interni, sia se la teoria è a stadi oppure olistica. Una teoria a stadi è quella computazionale di Marr e Poggio ke però nn ha il riconoscimento. In questa teoria i neuroni hanno struttura a cappello messicano. Gli stadi della xcezione sn 3: analisi primitiva, dettagliata e riconoscimento. Ci sn diverse teorie riguardanti il riconoscimento:
1) riconoscimento attraverso le imm ke consiste in una serie di imm presenti nella nostra mente cn le quali noi riconosciamo ogg. Il vantaggio di questo modello è ke è semplice da realizzare però nella mente umana rikiederebbe troppa memoria e troppo tempo.
2) Un’altra teoria è il riconoscimento attraverso i prototipi cioè immagini skematike. Questo è + veloce e rikiede - memoria ma x semplificare le immagini e sovrapporle ai prototipi ci vogliono operazioni ke rikiedono troppo tempo.
3) Un altro metodo di riconoscimento è l’analisi delle caratteristiche ke concorda con alcune scoperte di cellule semplici, complesse e ixcomplesse ma nn esistono i demoni della decisione e i neuroni della nonna!
4) Poi c’è il riconoscimento basato sulle componenti (geoni) ke sembra essere il + veritiero in quanto attraverso alcuni esperimenti si è visto ke ogg privati di alcuni pezzi vengono riconosciuti se sn visibili i geoni e nn viceversa.
CAPITOLO 11: LE IMMAGINI MENTALI
Le imm mentali hanno alcune proprietà ke le accomunano alle immagini vere: rotazione delle immagini connesse al paradigma della presentazione simultanea, successiva e della freccia; proprietà della grandezza delle immagini e scansione. I principidelle immagini mentali sn la codifica implicita, equivalenza xcettiva, spaziale, trasformazionale e strutturale. Anderson e Bower 2 proposizionalisti, sostengono ke la mente immagazzina info attraverso proposizioni astratte o strutture cn le quali comprendiamo la conoscenza. Questa teoria è però considerata insostenibile dagli immaginisti ke sostengono ke esistano rappresentazioni mentali basate sulle stesse imm, tesi sostenuta dagli esperimenti sulla rotazione. La teoria del doppio codice di Paivio supera la dicotomia delle precedenti sostenendo ke l’acquisizione sia in funzione dell’imm.
Fonte: http://appunti.buzzionline.eu/downloads/generale100708.doc
Autrice del testo: Federica
Fondamenti di psicologia generale
In questo corso studieremo fondamentalmente:
- la storia e i metodi dell’indagine dei processi cognitivi
- lo sviluppo storico della psicologia attraverso l’approccio comportamentista e gestalista
- Il ruolo della teoria delle informazioni
- L’approccio cognitivista
- I metodi di studio del comportamento
- La rappresentazione della conoscenza: approccio computazionale simbolico e approccio connessista
- Nozioni generali sui processi cognitivi: attenzione percezione memoria apprendimento e ragionamento
COSA STUDIA LA PSICOLOGIA: studia il corpontamento degli esseri umani cercando di spiegarlo attraverso il metodo scientifico che ci garantisce spiegazioni non influenzate da intrerpretazioni proprie della psicologia ingenua
COS’E’ LA PSICOLOGIA INGENUA? È la capacità di prevedere il comportamento umano proprio o degli altri attribuendo stati mentali
Questa psicologia ingenua si basa sulle teorie ingenue le quali scaturiscono all’esperienza personale. Ad esempio se un bambino perlustra una stanza noi guardandolo, siamo indotti a pensare che questo bambino stia cercando qualcosa perche siamo indotti ad associare la perlustrazione alla perdita di un’oggetto e ad associargli un determinato stato mentale. Continuando ad osservare il bambino possiamo corroborare la nostra tesi se esso trova l’oggetto smarrito e smette la sua esplorazione o la nostra tesi puo essere confutata se, ad esempio, il bambino stava giocando con un suo familiare.
Questo tipo di psicologia si forma fin da bambini, probabilmente dall’età di due anni, e si puo notare nel loro atteggiamento di condivisione degli stati mentali con, ad esempio, la loro attitudine ad indicare gli oggetti.
La differenza fondamentale che sta tra la psicologia e la psicologia ingenua è l’uso del metodo sperimentale attraverso il quale si possono fornire informazioni sulla relazione causale tra due o piu variabili.
La psicologia come scienza è nata in Germania poco piu di un secolo fa ed adopera una metodologia scientifica per avere risultati attendibili. Il metodo che giunge a conclusioni dettagliate e precise è quello applicato ai processi cognitivi (Memoria,percezione, apprendimento,ragionamento ,risoluzione dei problemi, linguaggio)anche se grandi passi sono stati fatti anche nei processi emotivi e motivazionali. I campi applicativi della psicologia sono principalmente la fisiologia,l’anatomia, neuro biologia e biochimica,fisica sociologia, statistica,informatica,filosofia e linguistica.
IL METODO SCIENTIFICO
Il metodo inizia dall’osservazione empirica che è comunque non del tutto oggettiva perché guidata dalla volontà dello sperimentatore. L’osservazione puo portare qualche volta all’induzione ma in ogni caso, anche dopo l’induzione, si arriva alla formulazione delle ipotesi. Formulata l’ipotesi c’è il necessario passaggio della deduzione ossia dell’ipotizzare e fare previsioni che possano corroborare la nostra tesi. A volte però abbiamo piu ipotesi su di un avvenimento e dobbiamo cercare di identificare quella piu realistica. In ogni caso il fatto che la verifica confermi la nostra teoria questo non significa che quest’ultima sia veritiera ed è per questo che sono necessarie piu verifiche.
Le scelte del ricercatore
- in alcuni casi egli forma delle semplici ipotesi relative all’esistenza di una relazione qualitativa tra alcune delle grandezze misurate o valutate nelle sue osservazioni
- in altri casi formula delle ipotesi sulle relazioni quantitative tra le grandezze misurate
- in altri casi si forma un modello che mette in relazione dei costrutti ipotetici ossia cose che in realtà non incontrero mai tipo l’intelligenza
ESEMPIO DI MODELLO:Numerose informazioni ottenute sperimentalmente hanno permesso di creare questo modello del funzionamento della mente umana
MEMORIA A LUNGO TERMINE
MEMORIA A BREVE
TERMINE
REGISTRO SENSORIALE
INFORMAZIONI
REGISTRO SENSORIALE:dura molto poco ma riesce a trattenere tutta l’informazione
Poi l’informazione passa nella memoria a breve termine
MEMORIA A BREVE TERMINE:mantiene l’informazione divisa in blocchi e riesce a mantenere da 5 a 9 elementi. dopo trenta secondi circa l’informazione sparisce. Questo tipo di memoria è molto limitata
MEMORIA A LUNGO TERMINE:si presuppone che questa memoria sia illimitata perche contiene molte informazioni
La memoria è fatta di azioni, proprio dal nascere delle procedure, anche quelle che si formano fin da quando siamo piccoli come il camminare o il parlare,e si pensa che sia formata da pezzi perche esistono delle patologie che permettono di perdere solo una parte della memoria.
La teoria scientifica è una teoria generale perché ispirata da principi generali e poiche contiene i modelli della memoria fare previsioni diventa possibile.
Nell’antichità le nozioni di memoria e apprendimento erano strettamente collegate in relazione a diverse funzioni della mente umana, possiamo costruire una teoria scientifica tramite il controllo sperimentale e la simulazione. Tuttavia, possiamo anche analizzare la struttura della rappresentazione ingenua insita nel senso comune. Platone Platone paragonò la memoria alla morbida cera su cui le nostre esperienze lasciano tracce. Tuttavia si è scoperto che la memoria è composta da più sistemi, alcuni da sempre ignoti, dotati di specifiche proprietà e funzioni. Il primo modello, modello multiprocesso, è stato fatto da Atkinson e Shiffn. Il loro lavoro resta la base per tutta la minuziosa serie di ricerche compiute negli ultimi 20 anni. Il modello AS è un modello imput-output descrive la sequenza di passaggi delle informazioni che, provenendo dal mondo esterno vengono via via elaborate passando nei vari magazzini delle memorie.
Il registro sensoriale
L’esistenza del registro sensoriale è stata provata dall’esperimento di sperling nel quale ai soggetti vengono proiettate nove lettere per 50 millisecondi e loro ne ricordano 4 o 5 ma dicono di averle viste tutte.
Ma non tutte le informazioni passano dalla memoria a breve termine a quella a lungo termine ma c’è bisogno della reiterazione dell’informazione per il passaggio.
L’immaginario e la teoria della mente
Le teorie della mente si formano all’età di tre anni quando il bambino ha appreso la differenza tra qualcosa di reale e qualcosa di immaginario. Nonostante questo si possono sviluppare degli atteggiamenti di paura nei confronti di ciò che non è reale .
La memoria prospettica, le strategie di memoria e l’immaginazione
Esiste anche una memoria per gli eventi futuri e il ricordarsi di compiere una azione comporta un piano complesso che Brandimonte ha distinto il sei fasi. La pianificazione di queste fasi risente di altri fattori: la decisione autonoma o la necessità di ricordarsi azioni future imposte da altri, la familiarità e l’automaticità e così via. Questo tipo di memoria, chiamata prospettica, evidenzia un problema generale della memoria. La memoria non è un magazzino in cui sono riposti degli oggetti che prendiamo quando ne abbiamo bisogno.
Abbiamo delle strategie di codifica che vengono messe in atto in fase di elaborazione del materiale, come per esempio, la reiterazione o il raggruppamento in categorie preesistenti, o la creazione di schemi. Abbiamo delle strategie di recupero che vengono attivate nel momento in cui serve una informazione. La diversità di ricordo si spiega anche con un doppio sistema di codifica uno verbale e l’altro immaginativo. Gli stimoli figurali sono più facili da ricordare perché attivano immediatamente una codifica per immagini e se l’oggetto è familiare anche la codifica verbale lo è, dato che sappiamo dare una codifica allo stimolo. Lo stesso avviene per le parole ad alto valore di immagine, quelle cioè che è facile associare ad una immagine visiva. Quando una informazione attiva entrambi i tipi di codifica il suo recupero è molto più probabile. Questo meccanismo della doppia codifica spiega la mnemotecnica dei loci e cioè un sistema adottato fin dall’antichità per ricordare meglio. Essa consiste nell’individuazione di un numero di luoghi lungo un percorso noto.
COME FUNZIONA UN MODELLO:come un algoritmo ossia in modo da poter fare delle previsioni.
Ad ogni modo i modelli della psicologia sono molto differenti tra loro anche perche, specialmente molto tempo fa due psicologi che avevano ricevuto diverse formazioni e preparazioni giungevano alla costruzione di modelli diversi;solo da 40 anni circa ci sono delle basi piu comuni infatti in alcuni domini , come ad esempio nei processi cognitivi , si stanno formano dei modelli comuni.
Il passo successivo del metodo: la deduzione
La deduzione è un processo logico che non sempre si puo attuare in quanto consiste essenzialmente nel non pensare ma di automatizzare il pensiero. La deduzione può essere logica o matematica e fornisce ipotesi o leggi di carattere generale, consentendo di ricavare conseguenze particolari osservabili sperimentalmente.
Per utilizzare il metodo necessitiamo di due variabili,la variabile indipendente e la variabile dipendente.
La variabile indipendente: è una grandezza manipolabile dallo sperimentatore. Questa variabile è soggetta ad una accurata analisi perché ci sono molti dati da controllare e bisogna assicurarsi che dia dei risultati validi e reali.
La variabile dipendente: la grandezza da monitorare o misurare
Bisogna effettuare l’esperimento in un luogo detto laboratorio un cui le condizioni ambientali sono diverse da quelle della vita quotidiana in quanto eventuali distrazioni potrebbero invalidare l’esperimento. In ogni caso possono sorgere dei dubbi a proposito dei risultati dell’esperimento perché da una parte, se ci si trova in laboratorio, i risultati sono influenzati dall’ambiente circostante diverso da quello della vita quotidiana; d’altro canto se l’esperimento non viene effettuato in un luogo isolato da ogni tipo di distrazione i risultati dell’esperimento potrebbero essere invalidati proprio per la presenza di elementi di distrazione. Il fatto che l’osservazione , effettuata tramite il metodo sperimentale, confermi le aspettative della teoria non implica la veridicità della data teoria. Quindi ribadiamo che lo scopo degli esperimenti non è tanto quello di verificare le teorie quanto di falsificarle.
Nel momento in cui una teoria è stata falsificata si possono attuare delle strategie per formulare una nuova teoria come ad esempio:
- procedere a nuove osservazioni stando attenti a non aver trascurato dati importanti
- modificare le ipotesi
- controllare se il procedimento di deduzione delle conseguenze sperimentali dalle ipotesi fatte precedentemente era effettivamente corretto
l’utilizzo del metodo sperimentale in psicologia è stato fortemente criticato da una corrente di pensiero introdotta da neisser eric che prediligeva un approccio ecologico.
Questa corrente di pensiero affermava che il metodo sperimentale non fornisce alcuna informazione utile per capire il comportamento nella vita quotidiana poiche elimina un gran numero di variabili che nella vita quotidiana hanno una notevole importanza. Come ad esempio la memorizzazione in laboratorio di una lista di parole senza senso. La lista è stata costituita in maniera tale che il soggetto non attribuisca significato alle singole parole della lista. Si potrebbe pero obbiettare che nella vita quotidiana i soggetti memorizzano elementi solo perché questi hanno significato per loro infatti nessuno impara parole senza senso. Questo mostra come le circostanze legate alla memorizzazione siano cosi differenti tra gli esperimenti in laboratorio e nella vita quotidiana da rendere impossibile un controllo, poiché, anche se queste osservazioni sono giuste, tuttavia diventa assai difficile conciliare l’approccio ecologico con le esigenze della psicologia scientifica. Ad ogni modo questa conciliazione diventa necessaria se si vogliono affrontare scientificamente particolari campi di studio , come la memoria autobiografica, la testimonianza giudiziaria, l’utilizzo dei concetti e l’apprendimento.
COME RACCOGLIERE I DATI SPERIMENTALI
- OSSEVAZIONE: guardare cio che succede e prenderne nota
- OSSERVAZIONE QUASI-SPERIMENTALE: guardare cio che succede manipolando le variabili indipendenti
- ESPERIMENTO: manipolazione delle variabili
- IL TEST: domande standardizzate
- IL COLLOQUIO: domande che si fanno per accertare fatti e condizioni oscure al soggetto
- L’INDAGINE: questionario per studiare le opinioni e l’atteggiamento di un soggetto
ORIENTAMENTI METODOLOGICI NELLO STUDIO DELLO PSICOLOGO
Gli orientamenti metodologici indicano dei principi molto generali di natura filosofica che ispirano lo studio dei fenomeni del comportamento. Questi principi costituiscono dei vincoli per la costruzione delle ipotesi e dei modelli. Questa costruzione deve essere effettuata in modo da rispettare gli orientamenti metodologici del ricercatore che la realizza. Nel corso della storia della psicologia scientifica, iniziata negli anni tra il 1870 e il 1880 ad opera del tedesco wilhem wundt, sono stati proposti vari orientamenti metodologici.
Il movimento comportamentista parte da un principio metodologico secondo il quale bisogna abbandonare il tentativo di costruire una psicologia sulla base di presunte descrizioni soggettive degli stati interni della mente. La psicologia, secondo Watson, si costruisce come un settore sperimentale delle scienze naturali e il suo scopo è la previsione ed il controllo del comportamento.Questo permette di evidenziare gli aspetti piu importanti di questo movimento. L’oggetto di studio del comportamentista sarà quindi il comportamento osservabile intersoggetivamente senza la possibilità di introdurre nella ricerca i costrutti “interni” quali la mente, la memoria o la percezione e come metodo di studio questo movimento opta per il controllo sperimentale. Proprio questo è uno dei meriti del comportamentismo, difatti l’attuale ricchezza dei metodi empirici di controllo delle ipotesi è un lascito del comportamentismo e della sua necessità di verificare le ipotesi con un rigore non inferiore a quello delle altre scienze naturali.
Proprio però per l’oggetto di studio cosi “limitato” molti comportamentisti sono stati costretti a limitarsi all’osservazione di possibili correlazioni temporali tra alcune variabili caratterizzanti gli stimoli e le risposte, con la speranza di poter giungere ad un corpus di conoscenze tale da poter consentire l’itroduzione di precise ipotesi che legano determinati stimoli a determinate risposte.
Questo però non significa che il contributo dei comportamentismi alla psicologia sia stato nulloperchè alcuni di loro, come ad esempio Hull, hanno proposto dei veri e propri schemi teorici in ambiti molto specifici come quello, ad esempio, dell’apprendimento. Secondo i comportamentismi infatti la nostra capacità di fornire un certo tipo di risposta è il frutto dei processi di apprendimento che caratterizzano il nostro sviluppo.
Questo movimento però ha alle sue spalle molti problemi irrisolti come ad esempio:
- a che livello devono essere osservati stimoli e risposte
- come si provoca l’associazione tra stimoli e risposte e in che modo è possibile scoprire la formulazione di questa associazione?
- Esistono diversi stadi di associazione tra stimolo e risposta?
Questi problemi porteranno alla formulazione di due essenziali teorie, la teoria macroscopica e la teoria microscopica. Le prime prendono in considerazione situazioni di stimolo e stimolo e risposta in modo globale mentre le seconde suppongono che ogni situazione osservata sia a sua volta composta da elementi microscopici non facilmente osservabili. I due approcci conducono approcci teorici assai differenti per spiegare lo stesso fenomeno. (pessa, penna pag 48)
Questo orientamento inoltre puo studiare un numero limitato di fenomeni, solo quelli legati al comportamento, quelli osservabili.
CONDIZIONAMENTO DI PAVLOV
STIMOLO INCONDIZIONATO
RISPOSTA INCONDIZIONATA
RISPOSTA INCONDIZIONATA
RISPOSTA CONDIZIONATA
STIMOLO CONDIZIONATO
STIMOLO INCONDIZIONATO
STIMOLO CONDIZIONATO
Pavlov faceva degli esperimenti ed era in contatto con i comportamentismi.
Esempio di esperimento: se noi facciamo vedere ad un cane un pezzo di carne avremo lo stimolo incondizionato della salivazione. Se prima di dare la carne al cane suoniamo un campanello dopo un determinato numero di volte il cane imparerà che dopo il campanello c’è la carne e gia dal suono del campanello il cane comincerà a salivare.
CONDIZIONAMENTO OPERANTE DI SKINNER
L’estensione del condizionamento classico venne realizzata grazie allo studioso americano Skinner che riprese le ricerche pionieristiche di Thordike, un suo connazionale che aveva iniziato ad analizzare l’apprendimento per prove ed errori. Thordike accertò che le risposte corrette tendono ad essere ripetute e quelle erronee tendono ad essere abbandonate. Diminuisce così il tempo di soluzione del problema, e cioè il tempo impiegato per uscire dalla gabbia. Skinner riprese l’impostazione di Thordike e la tradizione pavloviana introducendo la distinzione tra:
- comportamenti rispondenti, derivati da riflessi innati o appresi
- comportamenti operanti, non derivati da riflessi innati ma emessi spontaneamente dall’organismo.
Questo si distingue da quello classico derivante da condizionamenti innati o appresi in cui il soggetto non controlla gli stimoli e l’associazione stimolo-stimolo.
I comportamenti operanti aumentano o diminuiscono in funzione del rinforzo che può essere positivo (cibo o acqua) o negativo (cessazione di una scossa elettrica). Skinner distingue così il condizionamento operante, in cui il soggetto agisce, opera, nell’ambiente e lo modifica emettendo dei comportamenti in risposta a stimoli, da quello classico.
Skinner riuscì ad introdurre la tecnica del MODELLAGGIO siccome un animale, ci poteva mettere molto tempo prima di premere per caso la leva che gli dava il premio skinner osservava attentamente l’animale e gli faceva avere un po’ di cibo ogni volta che si avvicinava a quella parte della gabbia dove c’era la leva. Skinner modellava l’organismo che giungeva all’apprendimento della risposta corretta per approssimazioni successive. Il modellaggio può condurre ad esiti paradossali come quello raccontato da Skinner del piccione superstizioso.
Nel condizionamento operante è il soggetto a operare attivamente nell’ambiente cambiando il proprio comportamento in risposta agli stimoli.
Per Skinner ci sono delle risposte spontanee che ci sono nel repertorio della specie. Sono in un certo senso innate.
Abbiamo una Skinner box, cioè una scatola chiusa con una leva che, se premuta, permetteva la fuoriuscita del cibo. L’apprendimento avveniva con la tecnica del modellaggio, è con l’uso di rinforzi positivi.
Il rinforzo può avvenire a: intervallo fisso, intervallo variabile, rapporto fisso, rapporto variabile
Questo orientamento è stato introdotto dallo psicologo Max Wertheimer nel 1912 esso si occupa principalmente di studi sulla percezione. Secondo i gestalisti la percezione è una percezione di totalità organizzate o strutturate, e non coincide con la somma delle singole sensazioni inviate dalle singole parti dell’oggetto esterno.
Secondo Wertheimer esisteva un mondo solo di concetti che è influenzato da un mondo reale. Il mondo delle idee è a noi accessibile perché ha l’intenzione che ci permette di conoscere, di essere consapevole della coscienza.
Metodo fenomenologico: riferire cio che si vede realmente. Il fatto che percepiamo forme di un certo tipo piuttosto che di un altro dipende dall’azione dei principi di organizzazione che agiscono sul campo percettivo , entro cui sono immersi i singoli elementi di stimolazione. Questi principi conducono ad una riorganizzazione istantanea di questo campo che produce le forme percepite. I principi di riorganizzazione sono innati e universali. Questo consente di studiarli sperimentalmente ricorrendo al metodo fenomenologico. In esso i soggetti di fronte ad una particolare stimolazione percettiva riferiscono direttamente quello che percepiscono.
Va osservato che al metodo fenomenologico si puo dare una veste quantitalitva utilizzando la tecnica dei confronti, nella quale al soggetto vengono presentate contemporaneamente due stimolazioni ed egli deve valutare quali di queste possiede in misura maggiore una certa proprietà.
I gestalisti hanno cercato di estendere i principi utilizzati per spiegare la percezione ad altri domini della psicologia come la soluzione di problemi,ma questo tentativo non ha avuto successo. Tuttavia il merito dei gestalisti è stato quello di porre l’attenzione verso i fenomeni di organizzazione spontanea e verso il ruolo giocato dai processi interni dell’organismo, in opposizione ai comportamentisti.
Il cognitivismo che si presenta come una branca della psicologia introdotta nel 1967 da Ulric Neisser con la pubblicazione del suo libro “cognitive pysicology” tuttavia questo orientamento si era gia affacciato alla ribalta nel periodo di crisi del comportamentismo avvento intorno agli anni cinquanta. Il libro contiene i risultati di alcune ricerche secondo le quali bisogna studiare cio che c’è tra lo stimolo e la risposta.
Il comportamentismo cade perché si cominciano a studiare fenomeni non visibili come l’intelligenza. Se bisognasse ad esempio costruire una teoria sull’intelligenza e fare delle verifiche sugli effetti dell’intelligenza come dovrebbero costituirsi i modelli?
Per i cognitivisti l’organismo ha il ruolo di mediatore tra lo stimolo e la risposta ed è la sede dei processi mentali i cui principali esempi sono costituiti dai processi cognitivi.
Dal momento che tali processi interni sono inosservabili ricorrono ad una impostazione di tipo modellistica, ossia costruendo opportuni modelli dei processi mentali fatti in modo da ricavare da essi conseguenze sperimentali osservabili in laboratorio. I primi cognitivisti hanno adottato un approccio computazionale simbolico nel quale si ipotizza che la mente abbia un funzionamento analogo a quello di un computer digitale e che quindi sia una specie di calcolatore che agisce su simboli .
La spiegazione dei processi sta nella struttura del programma che regola le loro modalità di funzionamento , programma che può essere scoperto tramite osservazioni sperimentali sul comportamento e la formulazione di appositi modelli per spiegarle.
I primi computer nascono prima del 900 poi con lo sviluppo dell’elettronica nasce l’IBM. 1936/37 Conrad Zused progetta un computer ma si ferma perché scoppia la guerra. Negli stessi anni nasce la bomba atomica. Dopo la guerra si scopre che la teoria di Zused era valida e che quindi il suo computer funzionava. Oggi i computer , per quanto la tecnologia abbia fatto passi da gigante e abbia compattato gli strumenti e ne abbia aggiunto di altri, sono gli stessi di quelli progettati da Zused.
Nel 95 nasce un computer che riesce a dimostrare dei teoremi.
Oggi queste simulazione sono il più potente strumento che l’uomo ha inventato per aiutare la propria mente. La collaborazione del computer ha prodotto una rivoluzione sia teorica che tecnologica:
1)ha accresciuto tutte le nostre facolta cognitive dalla percezione alla memoria, al ragionamento
2) ha permesso di costruire complesse simulazione sia di quello che avviene nel mondo esterno, sia di quello che avviene nella mente dell’uomo;
3)ci ha condotto a concepire i fenomeni mentali che dipendono dal cervello in termini di manipolazione di simboli;
4) ha creato menti collettive dove si raccordano e si elaborano informazioni provenienti dai vari terminali di un’organizzazione;
5) ha permesso la costruzione di una rete mondiale di computer con cui si può comunicare da ogni punto del globo;
6)ha reso possibile simulare su programmi molte delle operazioni corrispondenti a percezione, pensiero, apprendimento e memoria.
Per un ricercatore non è da sottovalutare il vantaggio costituito dal poter coordinare il controllo sperimentale delle ipotesi con il controllo tramite simulazione. Quando infatti simuliamo un’operazione percettiva, attentava o ragionativi, possiamo capire meglio come questa funziona nell’uomo. Inoltre la simulazione ci permette di affrontare molti dei casi in cui è impossibile usare il metodo sperimentale.
Si credeva quindi di essere arrivati al segreto della mente umana, si può finalmente di arrivare a spiegare il dilemma che lega la mente al corpo.. Il mondo fisico e il mondo mentale sono collegati ma sono ben distinti, e ci si chiede dove la mia intenzione diventa movimento. Non si può nemmeno aderire ad una corrente monista dove si crede che l’intenzione sia un fatto fisico o meglio si potrebbe credere anche questo ma chi da l’ordine, ad esempio, di muovere un braccio?
Dato che i funzionamento della mente viene regolato da una specie di software diventa possibile implementare lo stesso software su un computer digitale, i quali dovrebbero acquistare le stesse capacità della mente umana. Il compito di attivare questa implementazione spetta ad una nuova disciplina, nota come intelligenza artificiale. La speranza di questo ha avuto origine nel 56 con simon che ha costruito un programma per computer in grado di dimostrare problemi di logica proprio come fanno i matematici, essa poi è stata alimentata grazie ai veloci progressi della tecnologia.
L’intelligenza artificiale, secondo l’approccio cognitivista originario rappresenta un potente strumento di indagine dei processi cognitivi. Se si riesce a progettare un programma che fa eseguire ad un computer i compiti in modo “intelligente” , in modo indistinguibile da come farebbe un essere umano, allora questo costituisce una prova che anche i processi mentali umani sotto questi compiti sono governati dallo stesso programma.
I cognitivismo ha ispirato la maggior parte delle ricerche moderne sui processi cognitivi ed ha posto le basi per la costruzione di una nuova scienza che superi i confini tra le discipline tradizionali: la scienza cognitiva.
Lo scopo della scienza cognitiva è quello di studiare in modo unificato la conoscenza e le sue trasformazioni negli esseri umani , negli animali e nelle macchine. Oggi questa impostazione cognitivista è stata in parte superata tuttavia molti biologi contemporanei continuano ad usarla perché essa ha il grande vantaggio di recuperare lo studio scientifico dei processi interni come la memoria, la percezione il pensiero che i comportamentismi avevano trascurato.
Pseudodiagnosticità e focalizzazione
A causa di fattori squisitamente cognitivi la maggioranza delle persone crede alle cure del santone.
La Pseudodiagnosticità è imparentata con molti altri fenomeni e tutti si possono ricondurre ad una tendenza a focalizzarsi su alcune rappresentazioni di un problme ae non su altre. Lo studio di questi fenomeni si colloca nell’ambito di una teoria dei processi di ragionamento che viene chiamata teoria dei modelli mentali. La nozione di modello mentale è alla base della TMM. La teoria che Johnson-Laird e i suoi collaboratori hanno messo a punto negli ultimi vent’anni è riuscita a spiegare fenomeni già noti e fenomeni nuovi.
La teoria dei modelli mentali TMM
I modelli mentali sono rappresentazioni di situazioni reali, ipotetiche o immaginarie. Tali modelli vengono utilizzati per prevedere eventi, fare ragionamenti e fondare spiegazioni. La mente costruisce modelli mentali a partire dalla percezione, dalla comprensione del linguaggio, dall’immaginazione e dalle proprie conoscenze. Quando una persona sente parlare per la prima volta di modelli mentali, suppone che non si tratti d’altro che di raffigurazioni o di immagini mentali. Un modello puo rappresentare anche nozioni astratte come la negazione e il possesso, che sono impossibili da visualizzare. Le operazioni che possono essere eseguite su un modello corrispondono a processi concettuali di cui non siamo consapevoli. Un’importante funzione dei modelli è quella di generare inferenze su relazioni spaziali non esplicitamente asserite tra gli oggetti. La TMM deve rendere conto non solo del nostro modo abituale di ragionare ma anche di come mai noi siamo programmati per commettere fallacie sistematiche in certi tipi di inferenze.
Le inferenze sillogistiche
Per poche esperti è semplice ricorrere alle inferenze della logica formale per trarre conclusioni da una o più premesse ma per la grande maggioranza non è facile capire nemmeno perché alcuni ragionamenti siano più scorrevoli di altri.
Inferenze del tipo modus ponens:
se nella mano c’è un re allora c’è un asso
nella mano c’è un re
nella mano c’è un asso
interferenze del modus tollens (meno immediata)
se nella mano c’è un re nella mano c’è un asso
nella mano non c’è un asso
nella mano non c’è un re
secondo le teorie delle regole formali la mente è fornita di regole di inferenza inconsapevolmente usate. In queste regole non c’è il modus tollens. Secondo questa teoria noi siamo nati con una sorta di logica naturale e attualmente gli psicologi cogniti confrontano questa teoria delle regole formali con quanto prevede la teoria TMM.
SE A ALLORA B
A
QUINDI: B
Modus ponens, si basa su un modello esplicito
modus tollens, richiede che venga resa esplicita la combinazione di valori che rende falso un condizionale del tipo SE A ALLORA B, NON B, ALLORA NON A. Non viene spontaneamente rappresentato nei modelli lo stato di cose che rende falsa la premessa del condizionale SE A ALLORA B. di conseguenza risulta meno immediata la conclusione che non c’è un B, a partire dalla constatazione che non c’è un A. ecco spiegata l’origine cognitiva del modus tollens.
Il principio di verità
La TMM ha dimostrato in vari modi gli effetti che scaturiscono dai limiti delle rappresentazioni mentali. Poiche negli esseri umani la memoria di lavoro ha una capacità limitata la teoria dei modelli poggia sul seguente principio di verità: gli individui tendono a minimizzare il carico della memoria di lavoro costruendo modelli mentali che rappresentano ciò che è vero ma non ciò che è falso. Infatti per eseguire un inferenza di tipo modus tollens, a differenza di una modus ponens, dobbiamo rappresentarci la falsità.
La scienza cognitiva propone delle teorie unitarie del rapporto mente corpo, quasi tutti i metodi del genere sono stati ispirati dalla scienza cognitiva e fornisce utili strumenti di analisi dei dati.Nasce nel 1979 per studiare la conoscenza in modo unificato e le sue trasformazioni negli esseri umani e utilizza i modelli , gli esperimenti e le simulazione del computer. Come gia detto il metodo utilizzato è quello dei modelli. Il termine modello ha diversi significati ma due sono i macrogruppi in cui si possono distinguere: modello della logica matematica e modello delle scienze applicate. I modelli sono molto utili poiché consentono di conoscere tutte le conseguenze dell’adozione di certe ipotesi e costringono a esprimere queste in modo piu preciso. Le conclusioni ottenute indirizzano la ricerca sul campo verso una verifica pratica della validità delle conclusioni stesse. Questa ricerca procura nuovi dati e dà luogo alla formulazione di nuove ipotesi. Ovviamente i modelli hanno anche il loro svantaggi come ad esempio il fatto di dover formalizzare e quindi astrarre, rischiano di trascurare aspetti importanti della realtà e quindi le loro conclusioni a volte possono non essere applicati alla vita reale.
MODELLO DELLA LOGICA MATEMATICA
La Logica Matematica prende le mosse dalla distinzione tra teorie astratte, contenenti unicamente sequenze di simboli prive di significato e regole per giocare con queste sequenze, e universi concreti, contenenti entità direttamente osservabili e manipolabili
Una interpretazione di una data teoria astratta consiste in una legge di corrispondenza tra Ie strutture simboliche che essa contiene e gli individui o gli eventi di un particolare universo. In questo contesto si chiama MODELLO di una data teoria astratta ogni interpretazione che renda VERI tutti gli assiomi della teoria stessa
È dunque il MONDO CONCRETO (L’UNIVERSO) che funge da MODELLO di una TEORIA ASTRATTA e non viceversa
TEORIA ASTRATTA
IL MODELLO NEL SENSO DELLE SCIENZE APPLICATE
È il significato più frequentemente attribuito al termine ‘modello’.
Esso denota una struttura simbolica costruita da un essere umano per rappresentare un insieme di fenomeni dell’esperienza
Tale costruzione dipende in modo critico dalle caratteristiche di chi la effettua :
• SCOPI
• CONOSCENZE, CREDENZE E SCHEMI MENTALI
• VALORI
in ogni caso la struttura simbolica che costituisce il modello è ben distinta dai fenomeni che essa intende rappresentare.
Esistono due tipi di modelli
I modelli descrittivi: lo scopo di questi modelli è unicamente quello di pervenire ad una descrizione il più possibile sintetica e comoda ad un’insieme di eventi osservati
Modelli esplicativi: lo scopo di questi modelli è quello di spiegare i fatti osservati in modo da poterne prevedere di nuovi e prendere decisioni sui comportamenti da adottare.
Ci sono diversi approcci per i modelli esplicativi: deduttivo, induttivo e abduttivo
Approccio deduttivo
Approccio tipico della fisica che cerca di dedurre da ipotesi di carattere generale conseguenze empiriche di tipo particolare verificabili sperimentalmente.
Conoscenze
Credenze
Scopi
Valori
schemi
Modelli specifici di particolari classi di fenomeni
Teorie relative a singoli domini di indagine
Principi di carattere generale
Verificazione sperimentale
Previsione di singoli fenomeni
Spesso i modelli dei processi mentali sono modelli di tipo qualitativo che consentono, al massimo, di inquadrare una serie di osservazioni esse quindi non sono in grado di collegare in modo attendibile le ipotesi adottate con le conclusioni e le valutazioni formulate; se però le ipotesi e la struttura dei modelli fossero adeguatamente formalizzati diventerebbe possibile sapere quali conclusioni effettivamente discendono dalle ipotesi adottate.
MODELLI IPOTETICO DEDUTTIVI
Sono strutture formalizzate in grado di ricavare precise conclusioni da precise ipotesi
Schemi interpretativi
Ipotesi di carattere generale e qualitativo dalle quali, se possibile, si ricavano spiegazioni approssimative dei fatti osservati e modelli specifici
Approcci
Modi di concepire i processi mentali, dai quali si possono ricavare schemi interpretativi
Tuttavia anche se fosse possibile costruire i modelli dei processi mentali di tipo ipotetico deduttivo probabilmente sarebbero inutili, in quanto oggi sappiamo che i modelli formalizzati dei sistemi complessi hanno una serie di limitazioni intrinseche come:
_ l’incapacità pratica di effettuare previsioni
_ l’enorme sensibilità rispetto al contesto
_ l’inseparabilità tra struttura simbolica, osservazionee e sistema cognitivo emotivo del modello
L’APPROCCIO INDUTTIVO
In questo approccio si parte da un’insieme di osservazioni particolari per ricavare, con metodi basati sulla statistica induttiva, modelli di carattere generale. Questo aprroccio è particolarmente popolare in psicologia e nelle scienze sociali.
Metodi tipici
Analisi di correlazione e regressione
Analisi fattoriali
Negli anni 60 c’era gia il computer, una macchina deterministica, era possibile quindi fare delle previsioni ma ci si era accorti che se c’era anche un minimo errore il risultato cambiava radicalmente (butterfly effect)
Questo tipo di fenomeni si chiamano fenomeni caotico-deterministici: ossia una piccola inezia può modificare il risultato finale. La statistica induttiva cerca di estrapolare modelli generali ma molti di questi strumenti sono molto lmitati.
Questo approccio però presenta diversi svantaggi:
- elevata arbitrarietà delle scelte e delle interpretazioni
- funziona solo nel caso di leggi molto semplici
- richiede, per essere attendibile, moltissimi dati
- non si presta a distinguere cio che è rilevante da cio che non lo è
la diffusione di questo approccio è dovuto ad una opinione, non sempre espressa, ma largamente condivisa dagli psicologi di differente impostazione la complessità dei processi mentali dipende solo dal fatto che essi coinvolgono tanti elementi differenti e non dal fatto che le leggi che li regolano sono complesse. Le leggi che regolano i processi mentali sono semplici e quindi facilmente ricavabili dalle osservazioni con i metodi di statistica induttiva.
Decenni di ricerche sui sistemi complessi di tipo fisico, biologico, economico, sociale hanno evidenziato che questa opinione è falsa, esse hanno messo in luce il ruolo dei processi di emergenza di nuovi livelli di complessità e delle complesse interpretazioni tra caos, ordine e disordine che non possono essere né descritti né studiati con i metodi usati dai modelli tradizionali.
Nello studio dei sistemi complessi occorre:
- accettare le limitazioni della prevedibilità e la presenza dell’incertezza
- rinunciare all’idea che esista un unico modello corretto
APPROCCIO ABDUTTIVO
Questo approccio parte dall’esistenza di un certo numero di modelli gia formulati e di un certo numero di dati osservabili e cerca di stabilire quale modello (o quali modelli) si adatti meglio ai dati disponibili.
Questo presuppone l’esistenza di fasi precedenti ipotetico-deduttive o induttive. Tale approccio si serve di metodi abbastanza nuovi tra i quali vanno ricordati i modelli di equazioni strutturali ( nati più di 30 anni fa diffusi in altri domini come economia e sociologia) e i metodi di soft-computing ( permettono di trattare osservazioni imprecise affette da rumore o poco attendibili espresse in modo qualitativo o limitate nel numero).
APPROCCI NELL’AMBITO DELLA SCIENZA COGNITIVA
- CONNESSIONISTA O SUBSIMBOLICO (usa strumenti tecnici): mente=cervello
- ENATTIVO mente= organismo + ambiente
- COMPUTAZIONALE SIMBOLICO mente=computer
Questo approccio presuppone che i processi cognitivi non siano altro che processi di manipolazione di simboli di natura computazionale. Qualunque processo cognitivo quindi viene visto come l’equivalente di un processo di calcolo, governato da apposite regole codificabili tramite un programma per computer e agente su entità collocate in un dominio largamente svincolato da quello degli eventi fenomenici. La mente quindi è assimilabile ad una sorta di calcolatore , la cui potenza dipende unicamente dal software che lo governa. L’analogia mente-computer viene interpretata dall’approccio simbolico in senso letterale:cosi come gli attuali computer digitali sono contraddistinti da una architettura che prevede una suddivisione in parti differenti così la mente vine vista come caratterizzata da una architettura che prevede delle componenti differenti, separate tra loro. Inoltre le capacità della mente vengono fatte dipendere dalla grandezza della sua memoria. Questa supposizione autorizza a pensare che la loro struttura logica possa essere ricavata dai dati sperimentali relativi a comportamenti umani.
Il punto chiave di questo approccio è la definizione dei simboli. Concepiti come entità dotate di significato compiuto a livello macroscopico questo significato viene visto come qualcosa di immediatamente evidente. La preoccupazione dell’approccio simbolico non è rivolta al significato dei simboli ma al funzionamento a livello macroscopico dei programmi di manipolazione dei simboli.
Ovviamente questo approccio presenta vantaggi e svantaggi
VANTAGGI
I vantaggi sono:
- l’iteratività: si riferisce alla possibilità di regole di manipolazione di simboli, di costruire espressioni simboliche più complesse connettendo tra loro espressioni simboliche più semplici. Molti sistemi di manipolazione simbolica sono dotati di un gran numero di possibili connettivi. In molti casi, la comparsa di un’espressione più complessa implica automaticamente la comparsa di un nuovo significato. Il vantaggio dunque è particolarmente evidente nei casi in cui i connettivi creano nuovi significati a partire da significati gia esistenti
- la ricorsività: essa caratterizza le operazioni, che a partire da date espressioni simboliche, producono nuove espressioni simboliche. In un linguaggio più tecnico queste operazioni vengono chiamate “produzioni”. La ricorsività introduce una specie di feed back, o di retroazione nell’ambito delle produzioni simboliche , nel senso che, se consideriamo una produzione come un dispositivo ingresso-uscita la ricorsività consente di riportare in ingresso l’uscita.
- l’ereditarietà : è connessa al fatto che alcune strutture simboliche possono essere associate a caratteristiche semantiche particolarmente semplici. Queste caratteristiche si ritrovano nei concetti definiti esclusivamente tramite elenchi di proprietà. In questo caso si verifica che, ogni qual volta si definisce un nuovo concetto subordinato ad un concetto più generale, il concetto subordinato automaticamente viene a possedere tutte le proprietà possedute dal concetto più generale.
- la strutturazione gerarchica: le caratteristiche dei sistemi simbolici fin qui elencate consentono di organizzarli in strutture gerarchiche che ammettono uno sviluppo verso l’alto praticamente illimitato. Accanto all’ereditarietà vi sono i processi di astrazione che consentono di vedere qualunque concetto o funzione particolare come un sottocaso di qualcosa di più generale. In termini di strutture simboliche, l’astrazione consiste nel denotare con un nuovo simbolo una classe di elementi particolari aventi alcune caratteristiche in comune.
I vantaggi offerti dall’approccio computazionale simbolico sono compensati da grossi svantaggi.
SVANTAGGI
- la necessità di una capacità di memoria virtualmente illimitata. I meccanismi di astrazione e di ereditarietà lasciano aperta la via a una estensione senza limiti, di espressioni e di relazioni simboliche; dato che ogni simbolo occupa in memoria una locazione specifica, ne consegue la necessità di un numero illimitato di locazioni di memoria
- la sensibilità ai disturbi, a risultati utili solo se le relazioni tra i simboli sono esattamente quelle giuste e le operazioni sui simboli sono eseguite secondo un dato ordine; anche un piccolo errore o la mancanza di un dato può produrre effetti disastrosi
- l’incapacità di rendere conto del significato dei simboli e delle relazioni tra simboli
- l’incapacità di prevedere o controllare il risultato dell’azione di sequenze complesse di operazioni simboliche in presenza di strutture o di operazioni troppo complicate o addirittura l’impossibilità di poter individuare le operazioni da poter effettuare per conseguire certi risultati.
Gli svantaggi di questo approccio fin qui elencati sono così rilevanti che hanno suggerito a molti ricercatori la necessità di un’approccio alternativo o più generale.
Questi metodi naquero subito dopo la seconda guerra modiale.
L’approccio computazionale simbolico si caratterizza per il fatto che i modelli dei processi mentali sono basati sull’ipotesi che il funzionamento dei processi mentali siano in sostanza equivalenti a quelli di un computer digitale , chiamato dai filosofi computazionalismo.
APPROCCIO COMPUTAZIONALE SIMBOLICO
VS
PSICOANALISI
FISICA
METAFORA METAFORA
ENERGETICA INFORMAZIONALE
(psicoanalisi) (scienza cognitiva)
in fisica l’aspetto energetico e quello informazionale sono strettamente collegati nell’ambito della termodinamica e della meccanica statistica.
Nel 195 Jaynes ha dimostrato che , partendo da principi di natura informazionale, si può ricavare tutta la termodinamica tradizionale, con il principio di conservazione dell’energia e il principio della Massima Entropia ci si potrebbe dunque aspettare che anche la metafora energetica e quella informazionale fossero correlate tra loro.
In effetti sono esistiti tentativi in ambito psicoanalitico volti a esplicitare questa correlazione (RAPAPORT, PETERFREUND)
L’APPROCCIO MODULARE
Da questi principi si ricava che, così come un computer digitale ha una sua architettura basata su un certo numero di modelli, tra loro interconnessi, ognuno deputato ad una specifica funzione (unità logico-aritmentica, unità di controllo, ecc) anche la mente deve avere una architettura basata su moduli ognuno deputato ad una specifica funzione, c’è stata quindi una proliferazione di modelli modulari delle attività mentali.
Nell’ambito dell’approccio modulare i differenti moduli sono visti come implementari da strutture distinte , ben caratterizzate sul piano anatomico-funzionale, collocate nel nostro cervello. Dunque anche il cervello avrebbe una architettura modulare., in cui ciascun modulo implementerebbe un particolare modulo tra quelli postulati nei modelli dei processi mentali.
Per quanto riguarda i disturbi mentali l’approccio cognitivista modulare suppone che essi siano dovuti a un malfunzionamento di specifici moduli cognitivi e quindi al malfunzionamento dei corrispondenti moduli cerebrali.
Le possibili terapie sono quindi:
1) un intervento farmacologico mirato a ripristinare il corretto funzionamento dei moduli cerebrali interessati
2) una riabilitazione cognitiva, mirante o al ripristino del corretto funzionamento dei moduli o ad affidare i compiti loro affidati ad altri moduli
SVANTAGGI
Molto spesso l’intervento farmacologico e quello di riabilitazione cognitiva agiscono su una scala assai più grande di quella dell’area cerebrale occupata dal modulo interessato.
In questo modo il controllo degli effetti della terapia diventa quasi impossibile.
ESISTONO PROVE DIRETTE DEL FATTO CHE I PROCESSI MENTALI SONO DI NATURA COMPUTAZIONALE? No tuttavia alcuni tipi di attività cognitive di alto livello come le computazioni vere e proprie , le attività di natura matematica o logica, l’utilizzo dei concetti e del linguaggio.
Sembrano essere apparentemente di tipo computazionale.
Tuttavia la psicologia del pensiero ha mostrato che non sempre a queste apparenze corrisponde una realtà effettiva
• Molti concetti non vengono utilizzati nel modo previsto dalla logica (vedi le ricerche della ROSCH)
• Gli esperimenti sull’apprendimento dei concetti (BRUNER, NEISSER e altri) hanno mostrato che gli esseri umani hanno grosse difficoltà nell’indovinare concetti definiti in termini di certi tipi di combinazioni logiche delle caratteristiche
• Gli esperimenti sui giudizi probabilistici (KAHNEMAN e TVERSKY) hanno mostrato l’esistenza di BIAS COGNITIVI che non dovrebbero esistere se i processi mentali fossero basati solo su processi computazionali
GLI SVANTAGGI DEL COMPUTAZIONALISMO
Gli svantaggi sono legati all’impossibilità di risolvere tre problemi fondamentali
- problema della complessità: consiste nel fatto che i comportamenti cognitivi osservabili sono talmente complessi da rendere praticamente impossibile una loro descrizione tramite i processi computazionali. Inoltre risulta impossibile individuare questi processi computazionali per via puramente sperimentali dato che nessuno sa quali sono le variabili che potrebbero influenzare l’esperimento di psicologia
- implementazione: consiste nel fatto che l’approccio non è in grado di spiegare perché i processi computazionali vengono effettuati perché vengono implementati in certi modi piuttosto che in altri
- decomposizione: Esso consiste nel fatto che, se fosse vero che i processi mentali sono computazioni eseguite secondo le regole di un apposito ‘software’ mentale, allora questi processi dovrebbero essere scomponibili in moduli, ognuno dei quali associato ad un ipotetico sottoprogramma di questo software
Questi moduli dovrebbero essere altamente specializzati (come lo sono I sottoprogrammi) e interconnessi tra loro sia in modo orizzontale che verticale.
COME SI POTREBBERO SCOPRIRE QUESTI IPOTETICI MODULI?
Il solo modo di farlo è quello di utilizzare il metodo delle dissociazioni o decomposizioni
Esso può essere applicato in due modalità:
TOP-DAWN: quando si riferisce ai processi cognitivi a livello macroscopico, così come osservati negli esperimenti di psicologia
BOTTOM-DAWN:quando si riferisce ai dati sperimentali e clinici forniti dalle Neuroscienze
LA MODALITA’ DEL TOP-DAWN: può essere applicata in due modi:
• DECOMPOSIZIONE MODELLISTICA, tipicamente utilizzata nell’intelligenza artificiale Essa consiste nella scomposizione, su basi puramente logiche, di un processo cognitivo in componenti sempre più elementari, fino ad arrivare ad un livello in cui le singole componenti siano molto semplici e facili da implementare
Utilizzando questa decomposizione si può poi implementare il modello così costruito tramite un apposito software.
Se questo software consente di riprodurre i comportamenti cognitivi studiati, allora questa viene considerata una prova della validità della decomposizione
• DECOMPOSIZIONE DEI COMPITI, tipicamente usata in psicologia
Questo metodo, proposto da Tulving (1983), prende in considerazione copie di compiti sperimentali differenti, aventi in comune una stessa variabile indipendente
Se, manipolando questa variabile, si producono effetti sulla performance in uno dei due compiti ma non nell’altro, allora questa sarebbe una prova del fatto che I due compiti sono eseguiti da due moduli differenti (o SISTEMI)
I DIFETTI DELLA MODALITA’ TOP-DAWN:
Il metodo della decomposizione modellistica non fornisce prove attendibili dell’esistenza dei moduli: infatti se un programma produce comportamenti simili a quelli umani, questo non implica che la mente umana abbia la stessa struttura del programma
Il metodo della decomposizione dei compiti produce identificazioni di moduli che non hanno le caratteristiche ipotizzate dall’approccio computazionale
Infatti sono generali, anziché specifici, e organizzati orizzontalmente anziché verticalmente
Caso tipico: MEMORIA EPISODICA e MEMORIA SEMANTICA
LA MODALITA’ DEL BOTTOM-DAWN:
Il metodo delle dissociazioni prende in considerazione soggetti che abbiano una grave compromissione di una singola e specifica capacità cognitiva
Se tale compromissione è associata ad una lesione localizzata di una specifica area cerebrale, si può asserire che in quest’area è localizzato il modulo responsabile di quella capacità.
Utilizzando il metodo delle dissociazioni, nel corso degli anni sono state individuate molte aree cerebrali deputate a compiti specifici riguardanti vari tipi di memorie, l’utilizzo e la comprensione del linguaggio, le capacità di lettura e scrittura, l’utilizzo dei numeri, il riconoscimento di specifiche configurazioni visive.
Tali ricerche si sono avvalse di molte moderne tecniche di indagini non invasive del funzionamento del cervello, quali la PET (tomografia ad emissione di positroni), la TAC (tomografia assiale computerizzata), l’EMG (magnetoencefalogramma), la RMN (risonanza magnetica nucleare) e molte altre.
GLI SVANTAGGI DEL METODO DELLE DISSOCIAZIONI:
Nonostante la sua attrattiva, il metodo delle dissociazioni presenta numerosi svantaggi, sia pratici che teorici, tra i quali i più importanti sono :
1) è molto raro che un paziente presenti una compromissione di una singola capacità cognitiva (di solito si osservano più tipi di compromissione); inoltre è altrettanto raro che un paziente presenti una lesione localizzata in un’area cerebrale specifica (se non in casi come operazioni chirurgiche, ecc.)
Queste circostanze limitano fortemente il numero dei pazienti cui il metodo è applicabile e, di conseguenza, la generalizzabilità delle identificazioni effettuate.
2) una applicazione ingenua del metodo delle dissociazioni porta ad un numero troppo grande di moduli cerebrali deputati a funzioni cognitive specifiche e, di conseguenza, ad un numero troppo grande di moduli cognitivi differenti per essere credibile
Se il cervello o il sistema cognitivo avessero un’architettura del genere sarebbero troppo vulnerabili (come, in effetti, è un computer digitale) per riuscire a funzionare in un ambiente estremamente variabile, con ingressi affetti da rumore o da errori, in presenza di malfunzionamenti dei singoli componenti del sistema (come i neuroniI, che possono addirittura ‘morire’)
Un caso emblematico è costituito dal modello di memoria a lungo termine proposto da Endel Tulving nel 1972
MEMORIA A LUNGO TERMINE
Questo modello si basa anche sull’applicazione del metodo delle dissociazioni ai pazienti che soffrono di amnesie
Infatti si osservano pazienti con disturbi amnesici relativi ad uno solo dei tipi di memoria previsti dal modello. Ad esempio un paziente può presentare disturbi amnesici relativi alla sola memoria episodica (non riconosce la persona che ha visto cinque minuti prima), mentre le capacità della memoria semantica e di quella procedurale sono rimaste intatte (sa scrivere e far di conto, andare in bicicletta e prepararsi un caffè)
Tuttavia, se si applicasse ingenuamente il metodo delle dissociazioni, si otterrebbero non 3 tipi differenti di memoria a lungo termine, bensì almeno 30 o 40, il che è scarsamente plausibile
3) i dati sperimentali ottenuti tramite il metodo delle dissociazioni sono fortemente influenzati dal fatto che si presupponga già in partenza l’esistenza di strutture modulari
Se un ricercatore è equipaggiato di metodi di indagine che gli consentono solo di evidenziare strutture modulari, è ovvio che troverà solo quelle !
Tuttavia i risultati ottenuti saranno viziati in partenza dai presupposti teorici adottati.
Si ha dunque un circolo vizioso perché l’ipotesi che la mente e il cervello abbiano un architettura modulare vizia le indagini sperimentali e consente di scoprire solo strutture modulari. D’altra parte dovrebbero essere proprio i risultati sperimentali a suffragare o no l’ipotesi dell’esistenza di architetture modulari.
Se il computazionalismo fallisce occorre introdurre più potenti e generali approcci come il connessionismo, il dinamismo la coscienza situata che hanno in comune diverse relazioni.
I VINCOLI DEGLI APPROCCI CHE SUPERANO IL COMPUTAZIONALISMO
Qualunque approccio che intenda superare il computazionalismo e risolvere I problemi della complessità, dell’implementazione e della decomposizione deve:
• Spiegare i fenomeni cognitivi in termini di emergenza (ad esempio dall’attività dei neuroni)
• Tener conto delle circostanze peculiari con cui l’emergenza si manifesta nei processi cognitivi e nell’attività cerebrale
LE PROVE SPERIMENTALI DELL’EMERGENZA NEI PROCESSI COGNITIVI
È assai difficile ottenere prove sperimentali relative all’emergenza mentre si sta verificando
Dunque molte prove si riferiscono ad effetti dovuti al fatto che un fenomeno di emergenza si è verificato in precedenza
Di solito esse si riferiscono all’esistenza di correlazioni a lungo raggio (spaziale temporale o di altro tipo) nei comportamenti o nelle prestazioni dei soggetti.
LE CORRELAZIONI A LUNGO RAGGIO NELL’ATTIVITÀ CEREBRALE
Esistono numerose prove sperimentali dell’esistenza di correlazioni a lungo raggio tra:
• segnali elettroencefalografici provenienti da zone differenti (e lontane tra loro) del cervello
• le attività oscillatorie di neuroni lontani tra loro.
LE CORRELAZIONI A LUNGO RAGGIO A LIVELLO PSICOLOGICO
Esistono numerose prove di correlazioni a lungo raggio anche in psicologia. Ad esempio:
• GLI EFFETTI GESTALTICI NELLA PERCEZIONE: parti differenti e lontane di uno stesso pattern visivo concorrono a generare una percezione unitaria e globale di una figura
• GLI EFFETTI GESTALTICI NELLA SOLUZIONE DEI PROBLEMI (L’INSIGHT): elementi differenti di una situazione problematica vengono correlati in modo da far emergere una soluzione al problema.
• LA PREMINENZA DELL’ELABORAZIONE GLOBALE SU QUELLA LOCALE NEI PROCESSI ATTENTIVI
(Effetto Navon, Effetto Posner, Compiti di Ricerca Visiva)
• L’EFFETTO DELLA SUPERIORITA’ DELLA PAROLA: una lettera posta all’interno di una parola viene riconosciuta più velocemente rispetto a quando viene presentata isolata
• GLI EFFETTI DEL CONTESTO NELLA COMPRENSIONE DI UN TESTO
• GLI EFFETTI DEL CONTESTO NEL RICHIAMO DALLA MEMORIA EPISODICA
LA NATURA SPECIFICA DI QUESTE CORRELAZIONI A LUNGO RAGGIO
Le correlazioni a lungo raggio osservate a livello cerebrale e psicologico sono diverse da quelle osservate nei fenomeni fisici (come quelli associati alle transizioni di fase)
Infatti hanno sempre una estensione limitata (a rigore si dovrebbero chiamare correlazione a medio raggio): gli effetti del contesto (visivo o cognitivo) non superano mai una certa grandezza (questo permette, ad esempio, di percepire senza sforzo figure impossibili come quelle di Escher)
Il termine connessionismo fu introdotto da Thorndike per indicare una teoria del comportamento basata su associazionistimolo-risposta. In essa ogni stimolo era associato ad una particolare risposta tramite una connessione caratterizzata da una certa forza. Il valore di questa forza indicava la probabilità che la presenza di quello stimolo desse luogo a quella risposta
Apprendimento = cambiamento delle probabilità
Successivamente il termine connessionismo è stato reintrodotto da Feldman e Ballard per indicare un approccio alla modellizzazione dei processi cognitivi sui seguenti principi:
- il sistema cognitivo è costituito da un certo numero di componenti elementari (unità cognitive o micro cognitive) ciascuna delle quali svolge una funzione che, d per se, non ha una rilevanza o un significato globale rispetto al compito in cui il sistema stesso è impegnato. Questo approccio imita quello della fisica ma poi ci si è accorti che non poteva spiegare alcuni banali fenomeni.
Esempio: una unità deputata a rilevare la presenza di una particolare caratteristica in un pattern di ingresso non ha rilevanza globale rispetto al compito di riconoscere che cos’è il pattern in questione. Supponiamo di usare l’insieme di caratteristiche per individuare degli animali:
coda
4 zampe
è oviparo
ognuno di esse si puo pensare come associata ad una particolare microunità cognitiva, il cui specifico compito è quello di rivelare la presenza o l’assenza di quella particolare caratteristica. Cosi il pattern canarino corrisponde all’attivazione della prima unità. Alla mancata attivazione della seconda unità e all’attivazione della terza unità. Il concetto di canarino, ovvero l’insieme delle tre modalità di attivazione, è una rappresentazione macroscopica, mentre ciascuna delle 3 micro unità cognitive considerate isolatamente, forniscono una descrizione microscopica che da sola non ha una rilevanza sufficiente per individuare il significato della rappresentazione macroscopica. Non basta riconoscere che è oviparo per individuare in modo univoco che si tratta di un canarino. In altri termini ogni unità si occupa solo dei propri ingressi e non dello stato generale del sistema.
I processi cognitivi sono fenomeni collettivi emergenti dall’interazione coperativa tra le unità elementari. Queste interazioni sono rappresentate tramite connessioni tra le diverse unità.
In generale le reti neurali sono sistemi composti da unità, in grado di attivarsi in funzione dei segnali ricevuti in ingresso, connessioni tra le unità (o neuroni) che veicolano i segnali da un’unità all’altra; ciascuna connessione è caratterizzata da un numero detto peso o coefficiente di connessione che misura la forza con cui il segnale viene trasmesso dalla connesione stessa.
Per costruire modelli connessionistici l’approccio è quello di costruire modelli molto semplificati del funzionamento di reti nervose, basati su una opportuna astrazione dal comportamento dei neuroni biologici e poi osservare come si comportano, sperando di osservare su scala macroscopica comportamenti simili a quelli degli animali o dell’uomo. Lo studio delle reti neurali comporta diversi problemi:
la necessità di semplificazione: nello studio di una rete neurale complessa non è chiaro il ruolo esercitato dalle caratteristiche individuali dell singole sinapsi sul comportamento macroscopico della rete. La strategia piu semplice quindi consiste nel trascurare queste differenze e studiare reti omogenee , composte di neuroni tutti dello stesso tipo, le cui leggi di funzionamento siano semplici.
IL MODELLO DI McCULLOGH-PITTS
All’interno di questo modello di rete nervosa formale ci sono solo dei neuroni e delle connessioni eccitatorie e inibitorie, ossia collegamento tra i neuroni. Ad ogni linea di ingresso è associato un peso che può assumere solo tre valori possibili
lo stato di una rete ad un determinato istante viene identificato con l’elenco ordinato dei valori dei segnali di uscita. In quell’istante si può facilmente dimostrare che per una rete neurale di n neuroni il numero di stati è 2 elevato alla n. Questo numero è molto elevato anche per le reti neurali molto piccole, ad esempio in una rete formata da soli 10 neuroni ci sono 1024 cambiamenti possibili. Tuttavia anche se molto grande tale numero resta comunque finito.
Si può facilmente dimostrare che in una qualsiasi rete di McCullogh e pitts l’unico comportamento possibile è periodico. Questo significa che, superato un certo periodo transitorio iniziale, ogni qualvolta la rete, durante la sua evoluzione, si viene a trovare in un dato stato, inevitabilmente, doto un k istanti di tempo tornerà a trovarsi in quel medesimo stato. Il valore di k caratterizza la lunghezza del periodo o ciclo. Se k è uguale ad uno lo stato viene chiamato STATO DI EQUILIBRIO.
I cicli differenti possibili in una rete di McCullogh e Pitts non sono ancora definiti, tuttavia il numero massimo possibili di cicli è pari a quello dei possibili stati di una rete, dato che ognuno di essi, a priori, può essere considerato come lo stato iniziale di una evoluzione che finisce inevitabilmente in un ciclo. Tuttavia potrebbe accadere che stati di partenza differenti diano luogo ad evoluzioni che finiscono nello stesso ciclo.
Non ci si può servire solo di simulazioni sul computer per scoprire i possibili cicli. Supponiamo di avere una rete di 100 neuroni, il numero totale degli stati è pari a 2 elevato a 100. quindi per scoprire quanti sono i possibili cicli dfferenti occorrerebbe usare ciascuno di questi stati come punto di partenza di un evoluzione della rete per vedere dove va a finire. Supponiamo che un computer impieghi un miliardesimo di secondo per calcolare ciascuna di queste evoluzioni il tempo totale sarebbe di 10 alla ventunesima secondi.
E’ necessario quindi migliorare le prestazioni delle reti nervose formali con una rete di apprendimento.
Si potrebbe aggiungere alle reti nervose formali una opportuna caratterizzazione delle connessioni tra neuroni attraverso le efficace sinaptiche o coefficienti di connessione. Cosi facendo, le reti nervose formali si trasformano in automi infiniti, dal momento che ogni singolo coefficiente di connessione ha un numero infinito di valori possibili. Una rete nervosa formale diventa capace di comportamenti cognitivi macroscopici se ipotizziamo che i valori dei coefficienti di connessione si possano variare in funzione dell’esperienza fatta. La più semplice di tali leggi di variazione è fornita dall’ipotesi della facilitazione sinaptica formulata da Hebb.
Le prime prove di questa ipotesi sono arrivate negli anni settanta e fu un tentativo di costruire qualcosa di simile ad un modello del cervello.
IPOTESI DELLA FACILITAZIONE SINAPTICA
Puo aumentare se continuamente stimolato
o diminuire se non stimolato
l’al’attivazione del neurone 1 al tempo t è seguita al tempo t+i dall’attivazione del neurone 2 allora l’efficacia sinaptica della connessione che va dal neurone 1 al 2 aumenta.
La logica sottostante ad un modello “pratico” dell’emergenza delle funzioni cognitive consiste nella costruzione di un modello le cui componenti non sono specificatamente progettate per svolgere funzioni cognitive di alto livello, nell’osservazione del comportamento macroscopico del modello. Se esso è somigliante a quello di un essere vivente che utilizza certe funzioni cognitive, potremmo dire che queste ultime emergono dalle interazioni tra le componenti di alto livello del modello.
L’implementazione dell’emergenza pratica:il caso delle memorie associative su reti neurali
La memoria umana funziona in modo diverso da quella di un computer, anziché servirsi di indirizzi per trovare la collocazione delle informazioni, adopera indizi per procedere alla ricostruzione delle informazioni stesse. Dunque se si può dimostrare che una rete neurale può funzionare come una memoria associativa si può sostenere che tale capacità emerge dalle interazioni tra i neuroni che la compongono. La più semplice memoria associativa basata su una rete neurale è il modello di Hoppfield ha una struttura composta cosi:
una rete monostrato di neuroni totalmente interconnessi
connessioni bidirezionali simmetriche
neuroni a soglia zero, con uscite pari a + 1 e a – 1
I pattern memorizzabili sono rappresentati solo da elenchi di valori +1 e –1, aventi tanti posti quanti sono i neuroni della rete ed ha solo due fasi di funzionamento, la fase di memorizzazione in cui i pesi vengono fissati in funzione dei pattern da memorizzare attraverso una formulazione quantitativa dell’ipotesi di Hebb e una fase di richiamo in cui in seguito alla presentazione di un indizio si innesca una dinamica di diffusione dell’attivazione che termina in uno stato di equilibrio , coincidente con il pattern richiamato dalla memoria.
La difficoltà del modello di Hoppfield sta nel fatto che si comporta a volte come una memoria associativa, ma soffre di gravi inconvenienti come ad esempio il fatto che non sempre il processo di diffusione dell’attivazione termina in uno stato di equilibrio ma si verificano dei comportamenti oscillatori, o non è detto che lo stato di equilibrio coincida con uno dei pattern immagazzinati precedentemente in memoria. Inoltre se il numero dei pattern immagazzinati supera il 14% del numero di unità della rete la probabilità che lo stato di equilibrio coincida con uno dei pattern precedentemente immagazzinati è nulla.
Gli apprendimenti (modifica dei pesi) utilizzati dalle reti neurali sono:
- supervisionato
- non supervisionato
- basato sul rinforzo
- diretto
- evoluzionistico
apprendimento supervisionato
basato sulla presentazione di esempi in cui ad ogni pattern di ingresso è associato un pattern di uscita corretto o desiderato. La modifica dei pesi della rete neurale è determinata dall’errore commesso in uscita, ovvero da una opportuna misura della differenza tra il pattern di uscita desiderato, corrispondente ad uno di ingresso, è quello effettivamente emesso in uscita dalla rete, in corrispondenza allo stesso pattern di ingresso; questo tipo di apprendimento è largamente impiegato per progettare sistemi neurali che realizzino una preassegnata legge di associazione imput-autput.
Apprendimento non supervisionato
In questo caso ogni esempio di pattern di ingresso non è associato ad un pattern di uscita desiderato e la modifica dei pesi dipende solo dal pattern di ingresso presentato e da quali unità di uscita siano state attivate, nonché, eventualmente, dallo stato interno della rete stessa. Questo tipo di apprendimento è impiegato per progettare sistemi neurali in grado di realizzare un clustering dei dati, dipendente solo da opportune caratteristiche statistiche dell’insieme dei dati stessi.
Apprendimento basato sul rinforzo
In esso la rete gestisce una sequenza temporalmente ordinata di pattern d’ingresso, in corrispondenza ad ognuno dei quali emette un pattern di uscita. Ogni uscita effettivamente prodotta dà luogo alla ricezione, da parte della rete, di un opportuno segnale di rinforzo determinato da una apposita funzione di rinforzo; quest’ultima stabilisce come il segnale di rinforzo dipenda dal pattern di ingresso presentato, dal pattern di uscita che esso ha prodotto e dalla posizione temporale, nella sequenza, del pattern d’ingresso; la modifica dei pesi della rete avviene in modo da massimizzare la somma dei segnali di rinforzo ricevuti durante la presentazione della sequenza in questione; questo tipo di apprendimento è impiegato per progettare sistemi neurali il cui autput deve controllare il processo di adattamento ad un ambiente esterno complesso.
Apprendimento diretto
Iin esso i pesi vengono modificati direttamente unicamente in funzione dei pattern d’ingresso da memorizzare, o eventualmente, in funzione delle associazioni dirette ingresso-uscita che si vogliono immagazzinare; questo tipo di apprendimento è impiegato per progettare sistemi neurali che fungono da memorie associative, in cui, cioè, il pattern richiamato dalla memoria, dipende dal pattern di richiamo presentato per sondare il contenuto della memoria stessa.
Apprendimento evoluzionistico
Questa forma di apprendimento è basata sulla constatazione che nelle specie biologiche la capacità di risoluzione di problemi di adattamento all’ambiente sembra derivare anziché da algoritmi locali di previsione del comportamento dell’ambiente stesso, da una opportuna evoluzione che ha selezionato gli individui e le strategie più adatte esplorando lo spazio dei possibili “solutori” tramite meccanismi che garantissero, durante l’evoluzione stessa, il permanere di una sufficiente variabilità genetica. Se tali meccanismi nonché i criteri di selezione, vengono icorporati in opportuni algoritmi di calcolo si possono sottoporre dispositivi artificiali ad una forma di apprendimento completamente diversa da quelle fino ad ora esaminate.
Le unità di sono le protagoniste dell’apprendimento, generalmente le loro modalità di funzionamento imitano in parte quelle dei neuroni biologici.
Lo schema di funzionamento di una generica unità si presenta cosi:
I perceptroni multistrato con la regola di apprendimento di error- backpropagation costituiscono le reti neurali più popolari. Occorre innanzitutto osservare che un perceptrone multistrato costituisce una rappresentazione molto grossolana di un sistema cognitivo, secondo l’impostazione cognitivista.
Sistema cognitivo
STIMOLO RISPOSTA
Va poi ricordato che esistono precisi teoremi matematici, i quali garantiscono che un perceptrone multistrato può apprendere dalla sola esperienza a realizzare qualsiasi relazione ingresso-uscita con arbitraria precisione. Anche se questi teoremi non dicono nulla su come questa possibilità teorica debba essere implementata, evidenziano come un perceptrone multistrato possa fungere da simulatore universale del comportamento di qualunque sistema.
I MODELLI CONNESSIONISTICI DEI DISTURBI MENTALI
In generale questi modelli sono costituiti da opportune reti neurali che, nelle loro leggi di funzionamento, contengono dei parametri che specificano la concentrazione di opportuni neuro trasmettitori. Se i modelli sono stati progettati bene si può osservare come , al variare di questi parametri, le prestazioni cognitive della rete si modificano, nel senso che da prestazioni normali si passa a prestazioni patologiche il cui andamento può essere direttamente confrontato con quello riscontrato nei soggetti umani. Ad esempio prendiamo un possibile modello connessionistico di un comportamento patologico tipico della schizofrenia, consistente nel fatto che i soggetti affetti dal disturbo sono incapaci, nel caso in cui una stessa parola abbia più significati, di attribuire alla stessa il significato congruente con il contesto.
Le unità rivelatrici dei significati in questo caso ricevono ingressi sia dalle unità rivelatrici delle parole che da quelle rivelatrici del contesto. Dato che una unità rivelatrice del significato ha una soglia di attivazione abbastanza elevata, può attivarsi solo se, sono contemporaneamente attive sia l’unità della parola interessata sia quella che rivela il contesto in cui la parola è inserita. Cosi in condizioni normali il significato si attiva solo se sono contemporamente attivate l’unità rivelatrice della parola e l’unità rivelatrice del contesto della frase. Il modello però, contiene due altre ipotesi: 1 le connessioni dalle unità rivelatrici delle parole a quelle dei significati hanno una forza che dipende dalla frequenza con cui un particolare significato si presenta nell’uso corrente 2 le unità rivelatrici dei significati si inibiscono reciprocamente. L’enità di questa inibizione è direttamente proporzionale alla concentrazione di dopamina nelle sinapsi. Se il livello di dopamina è normale, allora l’inibizione è bassa e i significati vengono correttamente riconosciuti con il meccanismo appena illustrato.
I PROBLEMI DEI PERCEPTRONI MULTISTRATO:
INTERFERENZA CATASTROFICA
L’interferenza catastrofica consiste nel fatto che, se un perceptrone ha appreso certe relazioni input-autput, e se, partendo dai pesi ottenuti al termine di questo primo apprendimento gli facciamo apprendere nuove relazioni input-output, il secondo apprendimento produce un drammatico crollo della performance perceptrone relativamente al primo apprendimento. La causa di questo fenomeno è dovuta al fatto che le leggi di apprendimento usate presuppongono una eccessiva plasticità dei pesi rispetto alle richieste dell’ambiente esterno. Questa circostanza va contro la plausibilità psicologica dei perceptroni dato che nella memoria umana i fenomeni di interferenza non sono mai catastrofici. Il fenomeno dell’interferenza catastrofica evidenzia un difetto di carattere generale che riguarda tutti gli algoritmi di apprendimento per reti neurali. Infatti dal momento che essi provocano modifiche dei pesi sinaptici unicamente in funzione dei vincoli esterni presenti al momento sono tutti fatalmente troppo plastici nei confronti dei vincoli momentanei perché cercano di essere efficienti. Questa eccessiva plasticità è alla radice del fenomeno dell’interferenza catastrofica.
BING-DING PROBLEM
E’ impossibile che un perceptrone dotato di singoli ingressi locali possa apprendere dalla sola esperienza a riconoscere le caratteristiche strutturali di pattern complessi, anche mai incontrati in precedenti apprendimenti. Una possibile soluzione a questo problema può essere lo stabilirsi di una relazione tra differenti parti di una scena o tra differenti aspetti di un concetto equivale all’instaurarsi di una sorta di coerenza macroscopica che vincola aspetti prima slegati tra loro. La soluzione del problema diventa quindi possibile se si individuano specifici meccanismi, fisici o biologici, che danno luogo a questo tipo di coerenza. A questo proposito gli studi neurofisiologici di autori come freeman, singer, varala e altri hanno individuato come probabile responsabile della comparsa di coerenza la sincronizzazione tra oscillazioni dell’attività neuronale. I dati sperimentali sono supportati da simulazioni di modelli teorici che mostrano come in una rete neurale questi fenomeni diano dovuti alla possibile comparsa di correlazioni a lungo raggio tra le attività di neuroni distanti spazialmente tra loro, sperimentalmente misurate tramite la cosiddetta funzione di crosscorrelazione
L’APPROCCIO ENATTIVO
I fondatori di questo approccio sono Varala, Thomson, Rosch e si basa sul seguente principio: i processi congitivi e l’initelligenza emergono dall’interazione tra semplici agenti dotati di semplici regole locali di comportamento. Tale approccio si ispira all’intelligenza collettiva evidenziata ad esempio da alcune specie di insetti e ai modelli della vita artificiale.
La vita artificiale nasce nel 1987 a Los Alamos National Laboratori negli USA ad opera di G. Langton ed ha come scopo generale quello di studiare sistemi artificiali che abbiano caratteristiche comportamentali simili a quelle mostrate dagli esseri viventi esistenti in natura. Attualmente la vita artificiale studia domini transdisciplinari, con centri di ricerca, riviste scientifiche e corsi universitari. Alcuni esempi di vita artificiale ci sono presentati dalle formiche virtuali, le vants. Questi sistemi inventati da Langton si basano su una rappresentazione astratta del comportamento reale delle formiche cosi come osservato dagli entomologi. Gli aspetti rilevanti delle formiche reali sono i seguenti:
hanno una sola visione locale del mondo
non sanno pianificare
seguono solo i gradienti di sostanze chimiche
secernono a loro volta sostanze chimiche
Il modello piu semplice di formica virtuale ha un’ambiente formato da un reticolo di celle bidimensionale ed ogni cella ha solo due stati possibili: 0 o 1. Ogni formica si può muovere ad ogni istante di una cella per volta, hanno esclusivament due direzioni di marcia verticale o orizzontale. Quando la formica si trova su una cella con lo stato zero, gira verso destra rispetto alla sua direzione di marcia, altrimenti gira verso sinistra. Dopo che la formica ha lasciato una cella, lo stato della cella cambia. E’ stato dimostrato che ogni traiettoria di una formica virtuale di questo tipo è sempre illimitata e’ stato dimostrato che ogni traiettoria di una formica virtuale di questo tipo è sempre illimitata. Si possono utilizzare le formiche virtuali per far loro simulare il funzionamento di porte logiche. All’inizio lo stato delle celle di uscita della porta viene fissato sempre su un valore convenzionalmente scelto come rappresentante il valore logico f.
Invece le celle negli ingressi della porta hanno stati corrispondenti ai valori logici degli ingressi alla porta corrispondenti ai valori logici degli ingressi alla porta. La formica entra da sinistra e, in base alla struttura degli stati interni ala porta, percorre un cammino che le fa toccare le celle degli ingressi e, eventualmente, quelle delle uscite. Alla fine esce sulla destra della porta. Lo stato delle celle di uscita dopo che la formica è uscita corrisponde all’uscita della funzione logica calcolata dalla porta.
L’INTELLIGENZA COLLETTIVA DELLE FORMICHE VIRTUALI
Modificando un poco il precedente modello si ottiene che un opportuno insieme di formiche virtuali manifesta una intelligenza artificiale che nessun individuo, isolatamente preso, sia intelligente. In particolare un’insieme di formiche virtuali è in grado di raccogliere cibo nell’ambiente e concentrarlo nel nido e concentrare in mucchi il materiale sparso.
COSA SIGNIFICA EMERGENZA?
Il termine emergenza sembra qualificare entità o processi associati a tre caratteristiche fondamentali: dipendenza dell’osservatore, esistenza di differenti livelli di descrizione, comparsa di entità coerenti.
- dipendenza dall’osservatore: un processo o entità non sono emergenti in senso oggettivo, ma solo relativamente ad un osservatore dotato di appositi strumenti di osservazione e di descrizione, nonché di scopi per i quali utilizza questi strumenti. Una misura dell’emergenza è la sorpresa provata dall’osservatore quando gli capita di rivelare fenomeni che risultano inaspettati rispetto agli scopi per i quali egli si era fornito di quegli strumenti. Tipicamente l’emergenza è associata alla comparsa di nuovi livelli di descrizione, rispetto ai quali i fenomeni assumono un aspetto più semplice.
Esempio:
Le oscillazioni collettive di un cristallo che emergono dalla dinamica dei singoli atomi che lo costituiscono.
Normalmente il livello di base genera il livello emergente che a sua volta influenza il livello di base.
- comparsa di entità coerenti: i fenomeni emergenti danno luogo alla comparsa di entità che si comportano come un tutto.(cristalli, ferromagneti, radiazioni laser, esseri viventi)
TIPI DI EMERGENZA: J.Cruthcfield ha introdotto una distinzione tra tre tipi di fondamentali emergenza:intuitiva, pattern formation, emergenza intrinseca.
L’emergenza intuitiva corrisponde semplicemente al fatto che un comportamento appare inaspettato. Tuttavia non è connessa ad una definizione precisa.
L’EMERGENZA INTRINSECA
Si tratta di una forma di emergenza in cui si ha la comparsa , ad un livello più elevato di quello adottato per la descrizione dei comportamenti del sistema, di fenomeni collettivi che sono imprevedibili in linea di principio, anche se compatibili con i modelli adoperati o modificano con la loro comparsa il funzionamento stesso del sistema.
Cio che noi percepiamo sarebbe una riproduzione di quanto si trova nella realtà secondo questo atteggiamento, definibile come realismo ingenuo, il modo si presenta a noi così come esso è e vi è una coincidenza tra la realtà fisica e quella percettiva.
Nelle illusioni ottico geometriche si verifica una notevole disparità tra la configurazione reale degli stimoli e la loro percezione, pone in evidenza che la corrispondenza tra la realtà fisica e quella percettiva è il risultato di un processo articolato di elaborazione delle informazioni provenienti dall’esterno. Esso richiede un atteggiamento critico che consenta il superamento del realismo ingenuo. Occorre seguire il principio del rispetto-sospetto, cioè trattare i fenomeni percettivi con il dovuto rispetto e il necessario sospetto, evitando sia l’errore dello stimolo sia quello dell’esperienza. Il nostro mondo percettivo non è quindi una fotocopia della realtà ma è il risultato di una sequenza di mediazioni fisiche, fisiologiche e psicologiche, nota come catena psicofisica. Gli oggetti e gli eventi del mondo circostante producono una molteplicità di radiazioni, queste stimolazioni distali, vanno a suscitare negli apparati recettivi precise sollecitazioni, definite come stimolazioni prossimali. Queste ultime vanno intese come una situazione dinamica soggetta a continui mutamenti. Nell’organizzazione percettiva l’ordinamento temporale degli stimoli e altrettanto importante del loro assetto spaziale; se la stimolazione prossimale è sufficientemente intensa produce nei recettori interessati una serie di eccitamenti nervosi che vengono trasmessi sotto forma di messaggio nervoso fino ad una definita regione cerebrale. La stimolazione suscita una rapida successione di eventi fisiologici, alle fasi terminali di questi accadimenti nei livelli centrali dell’organizzazione nervosa cerebrale corrisponde la percezione, ossia l’mpressione diretta e immediata della presenza di determinate forme della realtà ambientale. Queste impressioni costituiscono la realtà fenomenica, ossia la realtà percettiva così come “appare” al soggetto in termini immediati e diretti. In questa prospettiva la percezione può essere itesa come l’organizzazione immediata, dinamica e significativa delle informazioni sensoriali. La percezione si presenta come un processo organizzato intrinsecamente che, attraverso molteplici attività di selezione, perviene a strutturare un mondo fenomenico unitario.
Come si è potuto constatare sin da queste prime osservazioni, la percezione rappresenta un ambito psicologico complesso nel quale si sono sviluppate diverse teorie
La teoria empiristica
Secondo l’interpretazione empiristica della percezione le esperienze con la realtà forniscono un contributo essenziale alla percezione degli oggetti
La teoria ecologica di Gibson
Gibson rigetta ogni interpretazione della percezione come se fosse un progressivo arricchimento delle informazioni sensoriali attraverso una serie di processi eterogenei. Egli respinge la tesi secondo cui la percezione è il risultato dell’attività cognitiva del soggetto percepente che “impone” la propria elaborazione. Per Gibson le informazioni percettive sono contenute nella stimolazione cosi come essa si presenta al soggetto. La stimolazione non è né caotica né indeterminata, ma offre un ordine intrinseco dovuto alle reciproche relazioni fra i vari aspetti degli stimoli stessi. Gibson ha chiamato affordances queste “disponibilità” già presenti nella stimolazione. Il soggetto deve solo riuscire a cogliere queste informazioni percettive gia esistenti nell’ambiente circostante, egli non ha bisogno né di rielaborarle successivamente attraverso un processo cognitivo, né di integrarle con l’apporto di altre fonti.
La teoria computazionale di Marr
Secondo Marr il soggetto codifica le immagini in funzione delle continue variazioni di intensità luminosa
I PRINCIPALI FENOMENI PERCETTIVI
L’organizzazione percettiva
La mente umana organizza costantemente l’attività percettiva in modo da cogliere oggetti ed eventi in modo unitario e coerente.
L’articolazione figura-sfondo
La prima segmentazione del flusso delle stimolazioni consiste nell’articolazione figura-sfondo. Diversi fattori sono alla base di questa articolazione figura-sfondo, fra di essi si possono ricordare
l’inclusione: a parità delle altre condizioni diventa figura la regione inclusa
convessità: a parità delle altre condizioni diventa figura la regione convessa rispetto a quella concava
area relativa: a parità delle altre condizioni,diventa figura la regione di area minore
orientamento: a parità delle altre connessioni diventa figura la regione i cui assi sono orientati secondo le direzioni principali dello spazio percettivo.
Figure reversibili
Quando questi fattori non riescono a intervenire si creano le condizioni per ottenere le cosiddette figure reversibili; si tratta di configurazioni instabili e ambigue nelle quali si registra una alternanza periodica e regolare fra figura e sfondo. In virtù di questa fluttuazione spontanea è impossibile percepire nel medesimo tempo entrambi gli elementi come figura.
Contorni anomali
L’organizzazione percettiva degli stimoli comporta la comparsa di fenomeni percettivi particolari. Si tratta di contorni anomali, generati dalla distribuzione e dalla organizzazione degli elementi della stimolazione.
La segmentazione del campo visivo
Nello studio dei fattori che determinano l’unificazione e l’organizzazione di elementi discreti in unità percettiva Wertheimer pose in evidenza alcuni principi fondamentali:
-Il principio della vicinanza secondo cui , “a parità delle altre condizioni si unificano gli elementi vicini”.
il fattore della somiglianza “ a parità delle altre condizioni si unificano gli elementi simili”.
-La legge del destino comune” a parità delle altre condizioni si unificano gli elementi che condividono lo stesso tipo e la medesima direzione di movimento”.
-Il principio della buona direzione “ a parità delle altre condizioni si unificano gli elementi che presentano continuità di direzione”.
-La legge della chiusura “ a parità delle altre condizioni vengono percepiti come unità gli elementi che tendono a chiudersi fra di loro”.
-La legge della pregnanza “sono preferite le configurazioni più semplici, regolari simmetriche e stabili”
In questa prospettiva emerge che l’articolazione degli elementi in unità percettive non dipende dalle caratteristiche e dalle qualità possedute dai singoli elementi, bensì dall’organizzazione totale della configurazione degli elementi.
La percezione della profondità
Tutti gli oggetti hanno tre dimensioni che vengono percepite dalla retina che ne ha solo due. Sono diversi i fattori che contribuiscono a spiegare questo apparente enigma percettivo. La disperazione binoculare: per rendere ragione della percezione della profondità si sono studiati con attenzione gli indizi binoculari e si è fatto ricorso ai meccanismi della convergenza e dell’accomodazione. Nel caso della convergenza, quando fissiamo un oggetto gli occhi convergono in un determinato angolo. Anche l’accomodazione del cristallino costituirebbe un’altra informazione per la profondità, infatti esso diventa tanto più convesso quanto più è vicino l’oggetto da vedere.
Coscienza e attenzione sono due dimensioni psicologiche che accompagnano la nostra esistenza in ogni momento anche se con gradi differenti di intensità. E’ corretto parlare di “processi” piuttosto che di”stati” della coscienza e dell’attenzione perché si tratta di attività psichiche continue e costantemente mutevoli.
Definizione di coscienza
Si può definire la coscienza come la consapevolezza degli stimoli esterni e interni da parte del soggetto. Poiché l’attenzione è la porta d’ingresso privilegiata per la coscienza, quest’ultima ha una natura selettiva. La coscienza ha una base nervosa distribuita non unitaria, la presenza della coscienza si esplica in diverse funzioni, fondamentali per le nostre attività psichiche.
Consapevolezza cognitiva e percettiva: la coscienza consiste nella capacità di rispondere agli stimoli, provenienti dall’ambiente. La coscienza di uno stimolo sensoriale emerge dopo circa 500 millisecondi dalla sua comparsa, in questa funzione viene dopo gli avvenimenti, al fine di confrontare cio che succede nell’ambiente con quanto il soggetto aveva previsto in base alle sue conoscenze. La coscienza quindi svolge una “funzione di comparatore” in grado di confrontare, istante per istante, lo stato attuale del mondo con quello previsto in base alle proprie conoscenze
Controllo: la coscienza esercita anche un controllo ed un monitoraggio sui processi cognitivi. Un controllo costante rende possibile organizzare e pianificare le nostre attività mentali. in questo ambito, la coscienza assume in particolare la funzione di sistema rilevatore di errori: se qualcosa non va bene nell’esecuzione dell’attività in corso, il sistema può scoprire l’errore. Per quanto concerne le azioni future, eventi non ancora accaduti, possono essere rappresentati nella coscienza come accadimenti ipotetici
Consapevolezza metacognitiva e autocoscienza:a differenza di altre dimensioni psichiche la coscienza può essere consapevole di se stessa, in un processo teoricamente senza fine, consapevolezza metagnitiva. Esistono diversi livelli di coscienza. Questa capacità di autoriflessione è alla base dello sviluppo psichico. La coscienza diventa il centro gravitazionale dell’individuo, in quanto fornisce delle spiegazioni delle proprie azioni in base all’immagine di se, ai ricordi del passato alle aspettative del futuro. In ogni caso, le opportunità della coscienza sono favorite in continuazione dal processo della cosiddetta “coscienza esternalizzata” in quanto le conoscenze non sono racchiuse soltanto nella mente dei soggetti. Si tratta di una “coscienza distribuita”, poiché risulta presente in maniera diffusa nell’ambiente, senza avere una sede unica.
L’attenzione
Posto di fronte all’enorme quantità di stimoli che l’ambiente offre, il soggetto è in grado di selezionarne uno, è in grado di orientarvi l’attenzione compiendo alcuni movimenti. Di solito, vi è coincidenza fra la direzione dello sguardo e la direzione dell’attenzione nel selezionare una determinata posizione nello spazio. Tuttavia, è possibile separare questi due processi, infatti, si può dirigere lo sguardo verso un oggetto nello spazio e orientare l’attenzione verso qualche altra parte. Si è soliti di distinguere fra orientamento volontario e orientamento automatico dell’attenzione, nel primo caso il soggetto dirige l’attenzione verso un determinato bersaglio in maniera consapevole e controllata, può mantenere fissa l’attenzione su un punto, ignorando altri aspetti. L’orientamento automatico è caratterizzato dai seguenti tre aspetti a) non può essere interrotto b) non dipende dalle probabilità che il bersaglio su cui si dirige ‘attenzione sia quello giusto c) non è soggetto a interferenza da parte di un altro compito. Il fuoco dell’attenzione consente di concentrare le risorse attentive su uno specifico stimolo. Risulta, pertanto, impossibile dirigere tale fuoco su uno spazio ipoteticamente vuoto.
L’attenzione selettiva
E’ ovvio che l’attenzione del soggetto non riguarda soltanto la posizione di uno stimolo nello spazio, ma concerne tute le proprietà degli oggetti e degli eventi. Il processamento preattentivo prevede lo svolgimento di operazioni mentali in parallelo e conduce alla segmentazione del campo visivo in oggetti percettivamente rilevanti. In un secondo momento interviene l’attenzione per integrare le informazioni e procederebbe in maniera seriale. L’attenzione selettiva comporta una serie di competenze fra loro connesse. L’integrazione è la capacità di mettere in relazione diversi aspetti dello stimolo. Il filtraggio e la capacità di ignorare le informazioni non rilevanti per selezionare soltanto quelle richieste e pertinenti, varia in relazione alla presenza e al numero dei distrattori. L’attenzione selettiva implica l’attività di ricerca la capacità di individuare un oggetto nel campo visivo.
L’effetto facilitazione, priming: consiste nel meccanismo di regolazione in base al quale l’elaborazione precedente delle informazioni influenza l’elaborazione delle informazioni successive. Vi può essere un priming positivo, quando l’elaborazione precedente facilita la prestazione successiva e vi è il mantenimento della medesima strategia attentava; si può avere un priming negativo quando l’elaborazione precedente peggiora quella successiva ed è necessario un cambiamento di strategia attentava fra le due prestazioni.
Infine, l’attenzione selettiva comporta una attività di enumerazione visiva in base alla quale il soggetto è in grado di precisare il numero delle immagini-target all’interno di una serie spaziale in maniera automatica.
In che modo il sistema attentivo riesca a distinguere in maniera selettiva l’informazione rilevante da quella irrilevante?è necessario tenere presente alcuni effetti e meccanismi di processi attentivi
Effetto Simon
Il soggetto è collocato di fronte ad una serie di sei riquadri all’interno dei quali compaiono in ,maniera casuale,un quadrato o un rettangolo. Egli deve premere un pulsante posto alla sua sinistra quando compare un quadrato e un pulsante collocato alla sua destra quando compare un rettangolo. I tempi di reazione sono più rapidi quando la posizione dello stimolo e la posizione della risposta coincidono rispetto a quando non coincidono.
Effetto Stroop
Il soggetto è posto di fronte alle parole “giallo”, “rosso”, “verde” e “blu” collocate su uno sfondo “giallo”, “rosso”, “verde” e “blu”. La parola e lo sfondo possono essere congruenti o incongruenti. Il soggetto è invitato a pronunciare a voce altra il nome del colore dello sfondo. Nell’eseguire questo compito i soggetti hanno dei tempi di reazione significativamente più brevi per gli stimoli congruenti rispetto a quelli incongruenti.
Effetto Navon
Al soggetto vengono presentate lettere grandi composte da lettere piccole,. Quando il soggetto, posto di fronte a stimoli incongruenti, è invitato a prestare attenzione alle lettere locali, la presenza di una lettera incongruente produce un netto rallentamento nei suoi tempi di risposta.
Le risorse attentive
Pur avendo a nostra disposizione un rilevante quantità di risorse attentive, sono comunque limitate. In che modo siamo capaci di gestire e di governare tali risorse? In generale si parla di interferenza strutturale quando i due compiti da eseguire condividono il medesimo meccanismo. E’ praticamente impossibile seguire un film e nello stesso tempo svolgere una conversazione impegnata. Accanto all’interferenza strutturale esiste la cosiddetta interferenza da risorse. Quando le operazioni mentali che compiamo sono impegnative , esse assorbono una quota elevata di risorse attentive a nostra disposizione; la quota residua diventa limitata, in generale si ritiene che il compito secondario sia eseguito utilizzando le risorse di attenzione lasciate disponibili dall’esecuzione del compito primario.
Il sonno e i sogni
Come gia si è detto, la coscienza è un flusso che varia in continuazione e che subisce una rilevante modificazione nel corso del sonno.
GLI STADI DEL SONNO
dall’osservazione delle onde cerebrali si sono distinti sei livelli di attività cerebrali. La veglia attiva che presenta onde rapide e irregolari, la veglia rilassata caratterizzata da onde lente e regolari. Quando ci si addormenta si passa dallo stato di veglia rilassata allo stadio 1 del sonno. Dopo 10 o 20 minuti segue lo stadio 2, contraddistinto dai fusi del sonno. Seguono gli stadi 3 e quattro, caratterizzati dalla comparsa di onde lente ed ampie. Lo stadio 4 è noto come sonno profondo nel quale è piu difficile svegliare un soggetto e durante il quale si possono verificare specifici fenomeni. Durante il sonno notturno si osservano 4 o sei cicli di sonno ciascuno dei quali dura circa 90 minuti. Le osservazioni fatte con le tecniche poligrafiche hanno consentito di articolare ulteriormente questo quadro. Quando il soggetto dallo stadio 4 ritorna allo stadio 1, compie dei rapidi movimenti degli occhi, si tratta del sonno rem. Il sonno rem va distinto di conseguenza N-rem. Il sonno rem e il N-rem si alternano ciclicamente.
Confronto tra il sonno rem e il sonno N-rem
Questi due tipi di sonno costituiscono due differenti stati psichici. Durante il sonno non rem i ritmi del cuore e della respirazione sono lenti e regolari e si ha un notevole rilassamento, caratterizzato da un’attività cerebrale lenta e ridotta in un corpo pienamente rilassato. Durante il sonno rem si osserva la presenza di rapidi movimenti degli occhi, l’attività cerebrale aumenta fino a raggiungere una condizione simile a quella della veglia attiva, si ha la perdita del tono della muscolatura, insomma si ha un cervello attivo in un corpo praticamente paralizzato. E’ interessante notare che nel sonno rem il cervello è isolato dalle sue condizioni motorie. I sogni del sonno rem sono visivamente vividi e hanno le caratteristiche emotive bizzarre e illogiche tipiche dell’attività onirica. I sogni del sonno non rem assomigliano maggiormente ai pensieri normali.
Perché si dorme
Secondo le teorie ristorative del sonno esso consente un recupero delle risorse a livello somatico e cerebrale. Per contro le teorie circadiane del sonno sostengono che esso sia comparso durante l’evoluzione delle specie per mantenere gli animali inattivi durante i periodi in cui non hanno bisogno di impegnarsi nelle attività necessarie per la sopravvivenza.
La privazione del sonno
Si è verificato che la deprivazione del sonno non determina particolari alterazioni fisiologiche, neppure produce un declino delle funzioni cognitive, soprattutto quelle complesse. Dopo alcuni giorni di privazione di sonno compaiono i cosiddetti microsonni che consistono in cali improvvisi della vigilanza della durata di pochi secondi, durante i quali le palpebre si chiudono e i soggetti non rispondono agli stimoli ambientali. Nella situazione della privazione parziale si verifica un’incremento nell’efficienza del sonno: una diminuzione nella latenza di addormentamento, un decremento dei risvegli notturni e una riduzione degli stadi uno e due del sonno e di quello rem. Nel caso di una privazione selettiva del sonno rem i soggetti recuperano in maniera spontanea questo tipo di sonno nelle notti successive, entrando più frequentemente nel sonno rem. Ciò significa essere regolati in maniera indipendente rispetto al sonno SWS.
Spiegazione dei sogni, significato dei sogni
La spiegazione secondo la quale i sogni siano dei messaggi da capire è molto antica. Freud pensava che i sogni fossero scatenati da desideri inaccettabili repressi, spesso di natura sessuale, di conseguenza la chiave per capire i problemi psicologici delle persone era quella di rilevare il significato dei sogni, in quanto “via regia” dell’inconscio. Secondo altri studiosi i sogni costituiscono un modo di elaborare i ricordi delle attività condotte durante la veglia. Lungo il giorno siamo colpiti in continuazione da eventi e i sogni avrebbero la funzione di rimettere ordine nella memoria e di risolvere aspetti problematici che si hanno lungo il giorno. I sogni sono generati dall’attivazione di circuiti nervosi.
Il contenuto onirico e i sogni lucidi
Le connessioni tra le varie parti del processo onirico spesso risultano bizzarre, senza alcun rispetto delle condizioni spaziali e temporali. i sogni possono essere influenzati dagli stimoli che sono presenti durante il sonno. In tutte queste situazioni il soggetto dormiente non ha la consapevolezza di sognare mentre sta sognando, tuttavia a volte lo è e si tratta dei così detti sogni lucidi: in essi chi sogna è in grado di comunicare allo sperimentatore attraverso un segnale di essere cosciente di stare sognando.
Fonte: http://appunti.buzzionline.eu/downloads/fondgenerale0506.doc
Autrice del testo : Sara
Fondamenti di psicologia generale appunti
Visita la nostra pagina principale
Fondamenti di psicologia generale appunti
Termini d' uso e privacy