Metodologia della ricerca psicologica

 


 

Metodologia della ricerca psicologica

 

Questo sito utilizza cookie, anche di terze parti. Se vuoi saperne di più leggi la nostra Cookie Policy. Scorrendo questa pagina o cliccando qualunque suo elemento acconsenti all’uso dei cookie.I testi seguenti sono di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente a studenti , docenti e agli utenti del web i loro testi per sole finalità illustrative didattiche e scientifiche.

 

 

METODOLOGIA DELLA RICERCA PSICOLOGICA


EVOLUZIONE DEL CONCETTO DI SCIENZA


L’osservazione è il metodo di ricerca più naturale ed usato. Tuttavia, siccome noi osserviamo la realtà tramite organi di senso, questi ci permetteranno di notare solo certe cose. Durante gli esperimenti dovremmo infatti avere un atteggiamento critico e dire quale realtà stiamo approcciando à difatti, nn possiamo osservarle tutte insieme in poiché siamo esseri limitati.  È importante capire ke noi nn vediamo la realtà ma solo alcuni suoi aspetti.
La ricerca psicologica serve a trovare spiegazioni sul comportamento delle persone o dei sistemi sociali: tale spiegazione avviene tramite costrutti (=le ipotesi sulla logica ke sta alla base del comportamento: es ragazza mi si avvicina ed arrossisce à il mio costrutto è ke lei è timida).  X dare una spiegazione si deve tuttavia cercare il rispettivo “Xke” il motivo ke ne è alla base ; a causa di qst, è necessario distinguere:

  • Causalità: qnd certe condizioni, eventi o situazioni causano determinati comportamenti (quindi un certo evento causa sempre, nell’ordine descritto, un altro evento/comportamento: es mi sparo in testa à ho come causa la morte)
  • Correlazione: qnd certe condizioni, eventi o situazioni accadono insieme nel tempo, ma tra le 2 nn c’è necessariamente un nesso (anzi è ingenuo pensarlo: es in molti divorzi la coppia fumava à penso ke il fumo causa divorzio. Ma ovviamente ciò nn significa ke il fumo comporti quella cosa)

La psicologia viene intesa in senso scientifico se segue un metodo (=un insieme di procedure condivise e comuni). Qst, xke la metodologia fornisce regole (= soluzioni anticipate x classi di problemi razionali e regolabili) e xke, solitamente, la ricerca mette in pratica i risultati della metodologia.
Il ricercatore dovrà poi colmare le lacune ke la teoria lascia a causa dei vuoti delle regole metodologiche ma, x far qst, è essenziale un’approfondita conoscenza delle regole già esistenti.
Alla domanda cos’è la scienza risponde l’epistemologia, la quale ha un doppio significato: infatti essa è sia una riflessione sulla scienza, sia una riflessione sulla conoscenza. La concezione di scienza variò nel corso del tempo:

  • CONCEZIONE DIMOSTRATIVA DELLA SCIENZA: Inizialmente, nell’Antica Grecia (400 a.C.) c’era l’idea ke la scienza del mondo fosse riconducibile alla Doxa (=opinione fallace à es credo ke piova xke penso ke Zeus stia piangendo) e la cultura veniva pertanto basata sulla mitologia e sul mondo descritto in base a passioni e miti. Successivamente, poiché la Doxa venne ritenuta debole (si ritenne ke nn era il modo corretto di far verità) si passò al Logos (=legge): con essa nn ci si basava più sulle opinioni x far scienza, ma si ricercavano i principi logici ke stavano alla base delle differenze. Essa era dunque cultura della ragione e il mondo veniva descritto tramite dimostrazione logica. X raggiungere la verità scientifica era possibile procedere in 2 modi:
    • Ragionamento Induttivo: Da una serie di fatti particolari, deduco regole generali (Particolare à Generale). Qst è possibile tramite osservazioni specifiche (vedo corvi neri) in cui individuo delle regolarità (i corvi ke ho visto fin’ora sono solo neri) e da cui formulo ipotesi (anke il prossimo corvo ke vedrò sarà nero): infine, formulo la teoria (tutti i corvi sono neri). OsservazioneàIndividuo RegolaritààIpotesiàTeoria.
      Nota ke il problema della scienza dell’induttività è ke essa si basa solo sull’esperienza passata: tuttavia, x dare conclusioni generali sicure, dovrei prima vedere tutti i casi possibili. Inoltre, anke se le premesse sono vere, NON sarà mai possibile asserire logicamente la verità delle conclusioni.
    • Ragionamento Deduttivo: esso va dal generale al particolare (Generale à Particolare). Con tale metodo si pone prima la teoria (tutti i corvi sono neri), si formulano ipotesi specifiche (vedrò solo corvi neri), si individuano le regolarità (fin’ora ho visto corvi neri) e infine le verifico tramite osservazioni (vedo corvi neri). Teoria à Ipotesi à Individuo Regolarità à Osservazione. Con tale metodo inoltre, se le premesse son vere, sarà possibile asserire logicamente la verità delle conclusioni.
  • CONCEZIONE DESCRITTIVA DELLA SCIENZA: dall’osservazione dei fatti è possibile interpretare gli eventi e, tramite induzione (particolareàgenerale) si può poi elaborare una teoria siccome l’universo è un insieme unitario, sia indagabile ke spiegabile in quanto regolato da leggi deterministiche ke permettono di prevederne i fatti. La scienza, in quanto nn può rappresentare puramente la realtà, la descrive, avvalendosi delle precedenti caratteristiche.
    Inoltre, scienziati come Bacone, Newton, Galileo ecc si avvalsero di assunti ke affermavano ke il mondo esterno è reale, oggettivo, regolato da leggi logico-matematiche (ke sono poi corrispondenti alla reale struttura ke regola la natura). Lo scienziato scopre quindi com’è fatto il mondo avvalendosi della matematica.
    Nel 1920 circa nasce l’empirismo logico (o neopositivismo o positivismo logico), una scuola filosofica formatasi a Vienna ke aveva estrema fiducia nella scienza e nel suo metodo e ke era convinta del fatto ke i dati dell’esperienza sono i primi e unici dati da cui può partire l’indagine scientifica (era dunque convinta ke fosse necessario procedere dall’osservazione alla teoria à metodo induttivo). Inoltre, in quanto il processo scientifico è cumulativo, da esso è poi possibile ottenere il progresso.
    Le scienze positiviste condussero tuttavia ad una visione interessata del mondo e delle cose, poiché  coinvolta ed orientata al possesso di esse. Era poi necessaria un’epoché (=un distacco), in quanto venne mossa tali scienze la critica al loro assunto base, secondo cui l’esperienza è alla base di ogni conoscenza à veniva criticato il fatto ke nn esiste un’osservazione pura, priva di presupposti teorici: essa era sempre distorta da aspettative ed influenze. Venne quindi proposta la necessità di un metodo fenomenologico, ke spogliasse l’osservazione di tutti i suoi presupposti/aspettative x cogliere così i fatti nella loro immediatezza.
  • CONCEZIONE AUTOCORREGGIBILE DI SCIENZA: essa è la più recente e si rifà ad alcuni autori:
    •  Falsificazionismo di Popper: Egli avvertì di diffidare della scienza induttiva: siccome è impossibile verificare empiricamente una proposizione generale essa dev’essere esposta a falsificazione o a confutazione. Una teoria diviene quindi scientifica qnd viene esposta a falsificazione e regge questa. Nota tuttavia ke le conoscenze sono sempre provvisorie e soggette a revisione: scopo della scienza è quindi trovare teorie più complete delle precedenti. Si tratta dunque di una teoria del metodo x prova ed errore, basata su congetture e confutazioni: le teorie scientifiche quindi nn sono sintesi di osservazioni, ma congetture ke vengono avanzate x prova e ke vengono eliminate se contrastanti con le osservazioni.
      Popper criticò inoltre gli analisti: le loro teorie erano infatti costantemente verificate dalle loro osservazioni cliniche e il comportamento umano era sempre spiegabile con l’una o con l’altra teoria. Tuttavia, proprio x il fatto ke queste teorie risultavano sempre adeguate e confermate, si ebbe l’elemento di debolezza. La psicoanalisi x Popper nn può infatti essere scienza: se si hanno 2 teorie contrastanti (x es Freud e Adler) andrebbero verificate x capire quale sia quella veritiera. Ma siccome entrambe nn sono verificabili, nn si può parlare di scienza à inoltre, una teoria ke è in grado di spiegare tutto, ossia ke è onnicomprensiva, in realtà nn è valida poiché nn spiega niente (anke xke, sempre nell’es delle visioni contrastanti di Freud e Adler, entrambe le teorie hanno una spiegazione x ogni caso, ke tuttavia nn può essere verificata: se un bimbo affogasse e un uomo lo salvasse/uccidesse Freud rimanderebbe la cosa al complesso edipico, Adler al complesso d’inferiorità. Entrambe spiegano la cosa e potrebbero essere valide, ma nn essendo passibili di verifica vanno scartate).
      X Popper dunque la scienza progredisce o x la scoperta di problemi (ke nascono a causa di incongruenze tra teorie oppure tra discrepanze tra teorie e fatti) o x congetture e confutazioni (=prova ed errori). Lo scienziato in primo luogo dev’essere una persona curiosa, ke ricerca apposta la falsificazione x poter così imparare e costruire in tal modo la sua teoria.
    • Paradigmi di Kuhn: x lui, anziché parlare di singole teorie scientifiche, sarebbe più pertinente far riferimento ai paradigmi vigenti all’interno della scienza normale (=scienza normale intesa come ricerca stabilmente fondata su uno o più risultati raggiunti dalla scienza del passato ke ne costituisce così la base).
      I paradigmi sono modelli scientifici riconosciuti come validi, ke comprendono al loro interno leggi, teorie, applicazioni e strumenti, ke danno così origine a particolari tradizioni di ricerca scientifica con una loro coerenza (es comportamentismo valido x anni, poi superato dal cognitivismo).
      Le congetture e confutazioni nn riguarderebbero dunque singole teorie, ma gruppi di teorie omogenee, raccolte in paradigmi. Lo sviluppo della scienza prevederebbe poi la messa in discussione dell’intero corpus di ipotesi mediante quelle ke Kuhn definisce rivoluzioni scientifiche: essi sono eventi di sviluppo nn cumulativo, in cui un vecchio paradigma è sostituito parzialmente/totalmente da un nuovo paradigma incompatibile con esso. Grazie alla rivoluzione cambia infatti il modo di vedere il mondo, notando aspetti prima trascurati (sebbene con l’uso dei soliti strumenti di osservazione).
    • Anarchismo Metodologico di Feyerabend: egli mirava a sovvertire la razionalità e il rigore alla base del procedere scientifico in favore di un anarchismo metodologico ke ha come unica regola l’assenza di regole: l’idea di un metodo ke contenga principi fermi, immutabili e assolutamente vincolanti è di difficile realizzazione. Dunque, l’unico principio ke nn inibisce il progresso è ke qualsiasi cosa può andar bene.
      La scienza è dunque un’impresa essenzialmente anarchica, in quanto è proprio l’anarchismo teorico a incoraggiare il progresso.
      Le teorie, inoltre, nn sono rappresentazioni dirette di un mondo reale, ma sono finzioni: soltanto con una profonda credenza, le si possono elevare a rappresentanti del mondo reale (àquindi, la creatività dello scienziato è fortemente connessa alla sua convinzione religiosa).
  • X riassumere:
    • Positivismo: pone la scienza come un metodo, la quale è vista come un fenomeno astorico e assoluto e considerata come una descrizione oggettiva del mondo. La si ritiene inoltre come un processo di tipo cumulativo.
      I suoi eccessi furono tuttavia il scientismo dogmatico (=l’unico sapere valido è quello della scienza) e la chiusura nella sola fisica.
    • Dopo Popper: si vede la scienza come il risultato di un fenomeno storico e sociale e come un processo ke è disorganico e mutabile.
      L’eccesso di tale posizione è rappresentato dall’anarchismo metodologico.
  • REALISMO CRITICO: una proposta alternativa è rappresentata dal realismo critico: la conoscenza è qui considerata come un fatto storico (in quanto nn esistono fatti puri); il mondo esiste dunque indipendentemente dall’esperienza, e le teorie vengono pertanto applicate al mondo conosciuto e nn a quello reale (à e quindi le teorie possono essere sbagliate).
    È possibile tuttavia utilizzare concetti nn osservabili x spiegare l’osservabile (es atomi) in quanto ogni fenomeno è spiegabile a più livelli. Nota inoltre ke ogni evento è dovuto a interazioni causali complesse di sistemi aperti.

LA PSICOLOGIA COME SCIENZA
Fino al 1850 circa, la psicologia era una disciplina subordinata alla filosofia: x Comte (e x il Positivismo in generale), l’unica certezza proviene solo da fenomeni direttamente osservabili: ogni speculazione metafisica va dunque evitata à l’unica forma scientifica ammissibile della psicologia risiedeva dunque nell’etologia. Il resto della psicologia come scienza era impossibile xke nn si possono misurare i pensieri (e senza misura nn c’è scienza), xke la mente umana nn può essere allo stesso tempo soggetto ke studia e oggetto di studio e, soprattutto, xke la ns vita mentale è troppo complessa xke possa venire studiata scientificamente (in quanto sono troppi i fattori ad essere coinvolti).
Nonostante queste premesse, vi furono diversi contributi nella formazione della psicologia come scienza:

  • Nel 1879 Wundt fondò a Lipsia il primo laboratorio di psicologia sperimentale. Egli utilizzava lo stesso metodo scientifico naturalistico della fisiologia e, nella vita psichica, guardava la fisiologia (nn la patologia); faceva poi uso dell’esperienza immediata (a differenza di quella mediata, propria delle scienze fisiche) e ricorreva ad un metodo introspettivo.
  • A questo, seguì il contributo dato da Weber e Fechner, i padri della psicofisica à con essa si proponeva di trovare il legame tra la misurazione fisica dello stimolo e la sensazione psicologica del soggetto.
  • Con Helmotz si capì ke il pensiero (=attività neurale) era misurabile: esgli infatti misurò la velocità dell’impulso nervoso (circa 100 m/s)
  • Con Ebbinghaus venne descritta infine la curva dell’oblio (=il numero di item ricordati); era quindi possibile misurare attività cognitive come la memoria: la mente era dunque empiricamente sperimentabile

Da questi contributi iniziali, la psicologia venne poi riconosciuta come scienza. Presero poi vita varie scuole di pensiero:

  • Funzionalismo (James e la scuola di Chicago): si riteneva ke i processi mentali fossero attività globali risultanti dall’adattamento e dall’evoluzione (era dunque fortemente antielementarista). Ad essere oggetto di studio erano le attività mentali (come avvenivano l’acquisizione, l’immagazzinamento, l’organizzazione e la valutazione delle esperienze) e ke influenza esse avessero sul comportamento.
  • Comportamentismo (Watson e Skinner): oggetto di studio era solo il comportamento (in quanto l’unico ad essere osservabile intersoggettivamente). La psicologia, x i comportamentisti, era dunque una semplice branca delle scienze naturali, in quanto oggettiva e sperimentale; comportamento umano e comportamento animale andavano pertanto considerati sullo stesso piano. Il comportamento veniva inoltre considerato come un insieme di risposte muscolari / ghiandolari (e da qui il paradigma S-R, ossia a causa di un determinato stimolo si produceva una determinata risposta). I comportamentisti si avvalevano infine del Molecolarismo (=il comportamento osservabile è la combinazione di reazioni semplici) e del Riduzionismo (=il comportamento è riconducibile a determinate leggi, proprio come nella fisica).
  • Gestalt (Wertheimer, Kohler e Lewin): Essa studiava l’esperienza diretta e si fondava su 2 principi fondamentali: la super-sommatività (=gli elementi singoli di una configurazione globale danno un’impressione diversa dall’impressione ke suscita la configurazione globale à es le singole note danno un’impressione diversa da quella data dalla melodia) e la trasposizione (=la qualità gestaltica dimostra proprietà ke nn esistono nei suoi elementi costituenti ed è mantenuta anke se tutti gli elementi vengono cambiati à es un gruppo di persone ha un certo carattere ke sarà diverso da quello dei singoli componenti. Oltretutto tale carattere verrà mantenuto anke se i componenti verranno cambiati). Scopo della Gestalt era quello di individuare i principi di organizzazione, ke determinano l’emergere degli oggetti percettivi (à qst xke quello ke noi vediamo nn sono combinazioni di stimoli, ma oggetti costruiti grazie ai principi di organizzazioni à es qst x noi è una faccia J , nn un cerchio contenente 2 punti e una linea curva), tramite l’utilizzo di un approccio fenomenologico (=un’analisi dettagliata delle caratteristiche degli oggetti, così come questi si presentano alla ns osservazione ingenua). Importante è inoltre la caratteristica dell’isomorfismo.
  • Cognitivismo (Neisser): oggetto di studio era la scatola nera (=il cervello): il cognitivismo proponeva infatti di studiare le variabili intervenienti, ossia quello ke avveniva durante il processo S-R, paragonando il cervello al computer (l’hardware era costituito dal cervello e il software dalla mente). Il focus dell’indagine era quindi costituito dai processi mentali ke precedevano le risposte osservabili: da qui, la costruzione di vari modelli.
    Nel 1977 nasce poi la rivista Cognitive Science, frutto della consapevolezza ke i processi cognitivi debbano essere inquadrati in un ambito multidisciplinare (à è costituita precisamente da 6 ambiti: dalla psicologia, dall’intelligenza artificiale, dall’antropologia, dalle neuroscienze, dalla filosofia e dalla linguistica).
    Infine, nel 1986, emergono le prime ipotesi sullo sviluppo delle reti neurali e sul connessionismo (nonché sull’elaborazione in parallelo).

METODI DI INDAGINE
Il metodo può essere riferito o ad un insieme di regole/principi ke consentono di ordinare, sistemare e accrescere le conoscenze, o ad alcune tecniche di ricerca proprie di un determinato campo del sapere.
La conoscenza può derivare o da Metodi nn Empirici (=Autorità e Logica) o da Metodi Empirici (= scientifici oppure intuitiviàbasati sul senso comune).

  • METODI EMPIRICI:
    • METODI INTUITIVI: Son processi spontanei ed istintivi mediante i quali, in qualche modo, vengono presi in considerazione gli elementi ambientali e se ne trae una conclusione. Essi sebbene siano caratterizzati dalla mutevolezza dei criteri, si concludono con una verifica.
    • METODI SCIENTIFICI: essi formulano innanzitutto spiegazioni preliminari, affidando così un ruolo alla teoria ed alle ipotesi; dopodiché si mettono alla prova le spiegazioni tramite esperimento (in cui generalmente si osserva un certo fenomeno) e infine, in base ai risultati dell’esperimento, si aggiornano le teorie e ipotesi (facendo poi ricorso ad un’eventuale ri-verifica). Il metodo scientifico è tale xke indica i requisiti ke assicurano validità ad una ricerca e i mezzi di controllo ke possono garantire tali requisiti.
      Il metodo scientifico è pertanto basato su un’indagine empirica e possiede un linguaggio, delle regole e degli assunti propri; il suo scopo d’indagine viene poi definito dall’area di studio e, a loro volta, i metodi utilizzabili sono raggruppati/vincolati dallo scopo.
    • SENSO COMUNE vs METODO SCIENTIFICO: Se si confronta il senso comune (=le credenze) col metodo scientifico, emergerà ke il primo è spesso corretto/verosimile; ma siccome il giudizio umano nn è infallibile viene più spesso usato il metodo scientifico: esso (pur potendo sbagliare) è concepito x minimizzare le distorsioni e la fallacità dell’opinione soggettiva.

Nell’utilizzo dei metodi d’indagine è poi importante un’adeguata osservazione: si distingue pertanto tra

  • Osservazione Ingenua: è quella intuitiva, immediata, spontanea e ke nn prevede l’uso di teorie, modelli e metodologie. Siccome la ns mente e i ns occhi sono spesso ingannati, utilizzando un approccio ingenuo si può essere convinti ke la propria percezione corrisponda alla realtà; qst a sua volta può essere trasposto al mondo sociale e ai processi di conoscenza degli individui (à e quindi si è convinti di poter cogliere subito l’essenza dell’altro; x es Bob è timido è una descrizione ingenua; Bob sembra timido è invece una descrizione critica).
  • Osservazione Competente: è un’osservazione critica e orientata all’interpretazione di eventi all’interno di modelli e mediante metodologie scientificamente giustificate. Essa deve essere il più possibile libera dai pregiudizi dell’osservazione ingenua, e deve avvicinarsi il più possibile all’osservazione scientifica x quanto riguarda l’approccio critico e il controllo delle variabili.
    Nota ke occorre poi differenziare l’osservazione dall’interpretazione:
    • Osservazione: è centrata sui comportamenti osservabili (gesti, parole, posture, mimica..)
    • Interpretazione: è centrata su fenomeni nn osservabili ma ke possono essere inferiti del comportamento (pensieri, emozioni, intenzioni..)
  • Osservazione Scientifica: ciò ke caratterizza questa è la presenza di uno scopo specifico e di ipotesi ke stanno alla base dell’uso dell’osservazione (es voglio fare uno studio sull’aggressivitààuso l’osservazione x vedere se essa si manifesta in un’occasione ke ho ipotizzato). Nota ke decidere Che Cosa osservare significa individuare un problema (es aggressività) e stabilire come osservare comportamenti utili x comprenderlo (es tiene spesso i pugni chiusi?). In tale tipo di osservazione vanno poi interpretati i dati raccolti in base alle teorie cui si fa riferimento.
    L’osservazione scientifica sceglie inoltre come osservare in base a certe variabili: l’ambiente (laboratorio: controllato ma nn spontaneo; contesto naturale: spontaneo ma nn controllato), chi osserva (macchina: rigida ma completa; umano: flessibile ma incompleto), chi viene osservato (singolo bambino: controllabile ma limitativo; gruppo: meno controllato ma più sistemico), il tempo (durata delle osservazioni/intervalli) e l’analisi dei dati (qualitativa o quantitativa).

È fondamentale x una buona ricerca il passaggio dall’osservazione Ingenua alla Competente.

  • METODI NN EMPIRICI: possono essere di 2 tipi:
    • Autoritari: viene ritenuto vero tutto ciò ke è detto da qualcuno considerato come esperto o ke detiene un certo tipo di potere
    • Logici: sono quelli di tipo razionale/deduttivo ke usa solo il ragionamento x giungere alle conclusioni: x far questo si avvale di verità auto-evidenti e di far vero ciò ke nn contraddice la logica.

Le caratteristiche di una buona ricerca dovrebbero quindi essere:

  • L’oggettività
  • La coerenza fra teoria e risultati
  • La parsimonia (il fenomeno va spiegato col minor numero possibile di principi/assunti)
  • La falsificabilità

PROCESSO DI RICERCA
La ricerca può essere classificata in ricerca di base (qnd ha lo scopo di aumentare le conoscenze teoriche su un dato argomento) e in ricerca applicata (qnd essa nasce da problemi concreti).
Le fasi ke il processo di ricerca dovrebbe avere sono 6:

  1. Identificazione del problema di ricerca: esso può dipendere dagli interessi personali del ricercatore, da fatti paradossali,  da serendipità (= scoperte fortunate xke utili ma impreviste), dal voler risolvere problemi pratici, da ampliamenti/negazione di altre teorie, dalla consultazione di specifiche fonti, da esigenze legate alla carriera.. (es la musica classica aiuta l’apprendimento?)
  2. Pianificazione del disegno sperimentale: x es il numero di gruppi sperimentali, il numero del campione, i gruppi di controllo, il setting.. (es 1 gruppo con musica, l’altro senza)
  3. Osservazioni: visione del fenomeno con cui si raccolgono dati (livello di apprendimento dei 2 gruppi)
  4. Analisi dei Dati: verifica le differenze sistematicamente significative (le differenze di apprendimento tra i 2 gruppi sono significative?)
  5. Interpretazione dei Dati: a cosa corrispondono le differenze sistematicamente significative (se c’è differenza la musica classica aiuta lo studio, sennò no)
  6. Comunicazione dei risultati: pubblicazione su riviste scientifiche relative all’argomento

Quindi, una volta stabilito il punto di partenza (ossia il problema da cui si vuole partire à come affermava Popper la ricerca nasce dai problemi e nn dalle osservazioni) , vengono poste delle domande di ricerca ke intendono precisare un problema iniziale (es cosa genera la paura di volare? à si considerano quindi alcuni fattori ke potrebbero esserne alla base: le vibrazioni, l’assenza di controllo della situazione..).
Dalle domande di ricerca si passa poi ad ipotesi di ricerca (=qnd si ipotizza una relazione tra 2 variabili) in cui le variabili vengono definite operazionalmente (=ossia tento di misurare in maniera plausibile il fenomeno; es paura à frequenza cardiaca, pressione sanguigna..). Le ipotesi di ricerca considereranno poi come cambia la variabile (=paura) in relazione a condizioni dove sono presenti altre variabili (vibrazioni, controllo..).
Dalle ipotesi di ricerca nascono poi le ipotesi statistiche: si definisce ipotesi nulla (H0) qnd si ha l’assenza dell’effetto ipotizzato; si definisce invece ipotesi alternativa (H1) qnd si ha la presenza dell’effetto ipotizzato (e quindi un’interazione tra paura e variabili ipotizzate).
Quindi, dopo aver definito il problema e le ipotesi di ricerca, si procede poi alle osservazioni. In tale fase avviene una raccolta dei dati: i dati sono il frutto di una misurazione (àla misurazione è l’associazione tra una categoria/un simbolo formale e oggetti/eventi/ individui, in base a regole di corrispondenza). Nota ke si presuppone una corrispondenza (=omomorfismo) tra entità misurata e sistema di misura.
La misurazione ebbe diverse definizioni:

  • Assegnazione di numeri a oggetti/eventi secondo certe regole
  • Processo di assegnazione di numeri alle variabili, ke rappresentano attributi/proprietà dei soggetti o dei trattamenti
  • Mettere in relazione alcune proprietà degli eventi con proprietà nei numeri reali, in modo da agire sugli ultimi come se si agisse xo sui primi
  • Assegnazione di valori numerici a eventi/oggetti secondo regole ke consentono di rappresentare importanti proprietà degli eventi/oggetti con proprietà del sistema numerico

In generale si può definire la misurazione come un processo ke connette concetti astratti a indicatori empirici, e ke necessita di una pianificazione esplicita e organizzata x classificare e quantificare i dati in questione in concetti generali nella mente del ricercatore à da qui, la relazione fra risposta osservabile (empirica) e concetto sottostante nn osservabile (teorico).
Vi è inoltre una necessità di operazionalizzazione: i concetti scientifici devono infatti essere oggettivi come i dati scientifici, ed è necessario ke un costrutto teorico debba essere legato ad operazioni osservabili ke chiunque può osservare o eseguire (à nota poi ke i concetti scientifici sono definiti in base alle operazioni con cui essi sono misurati e ai processi ke essi indicano). Va inoltra sottolineato ke ogni nuova operazionalizzazione dello stesso costrutto elimina una o più possibili obiezioni alle spiegazioni (=convergenza). È poi fondamentale specificare gli elementi ke legano l’astratto (costrutto) all’empirico (misurazione).
Ciò a cui viene applicato la misurazione viene definito caso o soggettoàesso viene poi solitamente associato ad una delle condizioni sperimentali. La misurazione, inoltre, avviene su variabili (= qualsiasi caratteristica fisica/psichica del soggetto ke può assumere valori diversi in un dato intervallo, e ke varia da individuo a individuo).
Quetelet, appassionato di statistica e sociologia, era convinto ke le leggi della probabilità influenzassero le vicende umane: giunse così alla conclusione ke la legge dell’errore applicata ai fenomeni fisici, potesse essere usata anke nelle scienze umane à riteneva ke se i fenomeni sociali erano parte della natura umana, allora era probabilmente possibile determinare le caratteristiche medie psichiche/fisiche della popolazione.
A tal fine Quetelet raccolse i comportamenti degli individui x verificare o meno la presenza del concetto di “uomo medio”, in cui doveva essere possibile identificare le regolarità sottostanti al comportamento normale/deviante a seconda delle proprietà delle persone/razze. Mappando le caratteristiche fisiche/morali creò la scienza definita meccanica sociale e scoprì ke siamo tutti diversi: riguardo alle ns caratteristiche fisiche e mentali, siamo diversi secondo una distribuzione di probabilità normale (=e quindi nn casualmente). Dunque, tra i casi/soggetti, esiste sempre una variabilità legata alla caratteristica rilevata. La variabilità è d’altronde la condizione di base dell’analisi statistica (à se ci fosse uniformità nn occorrerebbe la statistica, xke ogni individuo rappresenterebbe tutta la popolazione: le proprietà identiche x tutti i casi sono definite costanti).
Trattiamo quindi ora delle variabili. Esse sono entità qualitative/quantitative ke possono assumere valori diversi in un dato intervallo (=sono dunque le proprietà misurabili di un evento reale, ossia l’attributo di un fenomeno). Le variabili sono quindi proprio ciò ke viene misurato nella ricerca e rappresentano i concetti studiati.
Esse possono essere distinte, in base al livello di precisione, in diversi tipi di variabili:

  • Variabili continue: hanno natura quantitativa, poiché possono assumere tutti i valori dei numeri reali (inclusi in un ambito di variazione).
  • Variabili  discrete: hanno natura quantitativa/ qualitativa: possono assumere solo un numero finito di valori nn frazionari (x es il numero dei figli) in un certo ambito di variazione.

Nota ke una caratteristica psicologica Qualitativa può essere quantificata, x es definendola in base al numero di comportamenti manifestati dal soggetto (à es aggressività. Nominale: aggressivo/nn aggressivo; Ordinale: aggressività bassa/medio/alta; Intervalli: test con punteggio x aggressività; Rapporti: numero di comportamenti aggressivi).
Possono poi essere scisse in:

  • Variabili comportamentali: qualsiasi risposta osservabile di un organismo, semplice o complessa
  • Variabili organismiche/soggettive: caratteristiche fisiche/psicologiche delle persone, in cui le prime sono osservabili, mentre le seconde sono solo teoriche.

Se divise in funzione dell’esperimento:

  • Variabili Indipendenti: fattori ke si suppone possano causare variazioni su variabili dipendenti (= ciò ke causa il cambiamento). La variabile indipendente dovrebbe quindi avere un effetto su quella dipendente.
    Le variabili indipendenti si distinguono in:
    • Variabili Manipolabili: son le variabili indipendenti ke lo sperimentatore può manipolare a piacimento nelle varie condizioni sperimentali (es l’intensità del suono nell’apprendimento)
    • Variabili nn Manipolabili: variabili indipendenti ke nn si possono manipolare xke incontrollabili (es ruolo del sesso nella riuscita di un videogioco)
  • Variabili Dipendenti: variazioni di comportamenti nei soggetti ke potrebbero essere dovute all’intervento delle variabili indipendenti (= ciò ke subisce il cambiamento).

Siccome poi la ricerca in psicologia serve  a trovare spiegazioni sul comportamento delle persone, degli animali o dei sistemi sociali, vanno distinte  anke i tipi di ricerche:

  • Ricerche Correlazionali: ricerche a bassa costrizione, in cui si ha un basso controllo di tutte le variabili à in tale tipo di ricerca nn è possibile o nn si vuole influenzare alcuna variabile, ma solo misurarne un certo numero e verificare se fra esse esistono delle relazioni (x es misura la relazione tra numero di errori e velocità di esecuzione di un test)
  • Ricerche Sperimentali: ricerche ad alta costrizione, in cui si ha un elevato controllo di tutte le variabili à alcune variabili vengono manipolate ed in seguito vengono misurati gli effetti di questa manipolazione su altre variabili (x es tramite la manipolazione controllata della velocità di esecuzione del test - limitando il tempo a disposizione – e misurando la variazione del numero di errori).
    Nota ke l’analisi dei dati nella ricerca sperimentale può essere realizzata mediante correlazioni fra le variabili manipolate e quelle influenzate dalla manipolazione, ma i dati sperimentali forniscono un’informazione migliore, xke consentono di dimostrare le relazioni causali fra le variabili, ke sono più affidabili.

È possibile istituire un legame causale tra 2 eventi qnd tra causa ed effetto si presenta una relazione di contiguità (causa adiacente/vicina all’effetto), priorità di tempo (della causa sull’effetto), connessione necessaria e connessione costante (à A causa B se è contigua, precedente e connessa sia da un legame necessario ke costante).
Tuttavia sorgono dei problemi nelle relazioni tra le variabili:

  • Variabili di Disturbo: qnd la variabile di disturbo varia insieme (= covaria) alla variabile indipendente, senza xo avere con essa alcun legame intrinseco. L’errore potrebbe quindi essere dovuto ad un campionamento sbagliato (es x verificare se il sesso influisce sul saper usare il PC prendo un campione di uomini anziani e 1 di giovani ragazzeà la cosa ke influirà sarà il sesso o l’età?) o ad un cattivo controllo delle variabili (x es faccio un esperimento con un gruppo sperimentale ed uno di controllo ma in 2 stanze diverse x luminosità e dimensioni).
  • Variabile Confusa: qnd la variabile di disturbo varia insieme (= covaria) alla variabile indipendente avendo con essa un legame intrinseco. In tal caso l’errore è dovuto ad una cattiva operazionalizzazione (es studio effetti del sovraffollamento sulla pressione sanguignaà chiudo 100 persone in una stanza piccola: se la pressione sale è causa della vista di troppe persone? Dell’alta temperatura? Ecc)

Ancora più importante è la distinzione in base ai livelli (= categorie ke ne esprimono la variazione), i quali permettono una variazione in 4 scale di misura à esse sono basate sulle relazioni ke intercorrono tra i livelli di variazione di una variabile, determinando così 4 categorie:

  1. Scala Nominale (o categoriale): sono scale in cui le categorie sono distinte in unità discrete ma nn ordinabili con valori numerici (tuttavia si possono assegnare ai livelli delle etichette). X es nazionalità: italiana, francese, inglese..
    Nota ke in tale scala i numeri nn hanno significato quantitativo (x es i numeri sulle magliette dei giocatori: ne indicano nome/cognome ma nn proprietà numeriche). In tale scala dunque, l’unica cosa ke conta è la differenza fra le categorie, ke nn sono tuttavia ordinabili.
  2. Scala Ordinale: scale in cui le categorie sono distinte in unità discrete e sono ordinabili sebbene nn abbiano valore numerico. Quindi, anke in tale caso, si può assegnare un numero ke indica la posizione nella scala, ma nn c’è nemmeno in qst caso valore numerico (es tipi di istruzione: elementare, media, superiore à sono ordinabili ma se anke assegnassi loro i numeri 1/2/3 nn avrebbe senso in termini di rapporto - le superiori nn sono il triplo delle elementari -).
    Le scale ordinali sono poi ulteriormente divisibili in:

 

  1.  
    • Scale Ordinali ad Intervalli di Ampiezza Nota: esse dividono il continuum in intervalli di ampiezza considerata nota, x ragioni logiche o x procedure empiriche.
      La più utilizzata in tal senso è la scala Likert (à qnt ti senti frustrato, da una scala 1-5 dove 1=nulla e 5=molto).
    • Scale Ordinali a Categorie Ordinate: nn si fa alcun tentativo di stimare l’ampiezza dei segmenti sul continuum ma si ricorre alla serie dei numeri naturali, senza tuttavia ke tali numeri valgano x il loro reale significato numerico, ma solo x l’ordine da essi espresso.
  2. Scala ad Intervalli equivalenti: hanno variabili i cui livelli possono essere ordinati e numerati, con intervallo costante tra i livelli à sono scale arbitrarie, dove sappiamo ke l’intervallo presente tra 0 e 1 è lo stesso esistente tra 1 e 2: ma ciò nn significa ke 1 sia il doppio di 2.
    Nota inoltre ke lo 0 nn indica assenza della caratteristica (es scala temperatura Celsius à 0° nn vuol dire ke nn c’è temperatura; inoltre 30° nn sono il doppio di 15°, xke se convertita in °Klein vengono 2 valori ke nn sono uno il doppio dell’altro. Qst xke le scale di misura della temperatura sono arbitrarie, ossia diverse una dall’altra in base all’origine della caratteristica di riferimento à ebollizione, punto di fusione/solidificazione.. pertanto, l’operazione di rapporto ha senso solo se l’origine della scala è fissa).
  3. Scala a Rapporti equivalenti: variabili i cui livelli possono essere ordinati e numerati, con intervallo costante tra i livelli e con lo 0 ke indica assenza della caratteristica (x es pesoà ordinato e numerato, e lo 0 indica assenza di peso).

Le variabili Qualitative sono la categoriale (classificazione x diversità) e l’ordinale (classificazione x ordine senza xo una distanza equivalente).
Le variabili Quantitative sono quella ad intervalli equivalenti (intervalli costanti, ma 0 nn indica assenza) e a rapporti equivalenti (0 indica assenza).
In tutto ciò, va notato ke Stevens (il creatore delle scale) nn distingue tra:

  • Unità di Conto: ossia qnd le variabili vengono ottenute contando (x es il numero dei figli)à si formano cosi le scale assolute
  • Unità di Misura: qnd le variabili vengono ottenute misurando (x es la temperatura) à formano le scale metriche (con e senza lo 0 assoluto)

Nota poi ke la scala di misura usata x la variabile può dipendere dalla definizione operativa della variabile e dal suo uso all’interno della ricerca.
X individuare facilmente il tipo di scala basta rispondere alle seguenti domande:

  • I livelli della variabile sono ordinabili?
    • NO: Scala Categoriale
    • SI: Gli intervalli tra i livelli della variabile sono equivalenti?
      • NO: Scala Ordinale
      • SI: Lo 0 indica l’assenza della quantità misurata?
        • NO: Scala a Intervalli
        • SI: Scala a Rapporti

COMUNICAZIONE E PRINCIPI
X fare una buona ricerca è necessario scriverla bene (affinché nn ottenga resistenze) e farla in inglese, di modo ke sia fruibile x tutti. Va inoltre notato ke la struttura scientifica è una forma letteraria con le sue regole, col suo lessico, coi suoi stili; bisogna poi pensare sempre al target e ricordare ke troppa informazione equivale a nessuna informazione. Occorre quindi trovare l’informazione migliore affidandosi ad indici di qualità (es riviste con Impact Factor). X comprendere l’importanza di una rivista scientifica si adotta l’Impact Factor, un indice ke riflette l’impatto scientifico delle pubblicazioni recenti di quella rivista sul panorama della ricerca internazionale à nella scienza infatti, finché un lavoro nn è pubblicato è un lavoro nn finito: l’essenza del progresso scientifico è infatti la messa in comune dei propri risultati, e ciò garantisce una visibilità pubblica ke ha notevoli vantaggi.
La comunicazione scientifica prevede l’uso di ordine, logicità, chiarezza, concisione e dimostrazioni (è inoltre consigliabile seguire sempre le istruzioni dell’editor à chi cura e pubblica l’opera); va inoltre preferita la comunicazione scritta a quella orale.
È utile distinguere tra articolo e report:

  • Articolo: è un tipo di report conforme a standard scientifici sia sul piano etico ke di forma. X essere considerato un articolo deve contenere risultati originali nn ancora pubblicati, esser stato revisionato dai referee (= gruppo di esperti nel settore ke valutano anonimamente l’articolo ed esprimono un giudizio sulla possibilità di pubblicarlo su una certa rivista: possono accettarlo così com’è, accettarlo se verranno apportate determinate modifiche o rifiutarlo) esser pubblicato su una rivista adeguata, esser completo x poter consentire di ripetere la ricerca ed essere infine facilmente reperibile.
  • Report: un report è un articolo ke nn è stato preparato x la pubblicazione, ma x la diffusione interna al gruppo di lavoro / all’istituzione (o in secondo luogo x convegni, tesi di dottorato).

Vediamo ora la struttura di una pubblicazione:

  1. Titolo, Autori, Affiliazioni: Il titolo deve essere breve, chiaro e d’effetto, usando frasi dirette ed essenziali (e nn lunghe) ma evitando contemporaneamente le abbreviazioni e altri fattori di confusione. L’ordine degli autori riflette il rispettivo contributo di ciascuno di questi; inoltre, riportando gli indirizzi accademici, si indica l’autore ke deve essere contattato x avere ulteriori info sull’articolo.
  2. Introduzione, Scopo e Ipotesi della ricerca: l’introduzione inserisce la ricerca nel contesto della letteratura, spiegando le ragioni dell’articolo  e xke esso è importante. Con essa si tenta di attirare l’attenzione del lettore, sollevando questioni/paradossi. Sarebbe bene farla tramite una breve rassegna dei lavori più importanti, e come si potrebbe dunque affrontare il problema partendo dalle conoscenze attuali. Nell’introduzione vanno infine citate le ipotesi della ricerca.
  3. Metodo: Esso riporta le indicazioni su come è stata condotta la ricerca, affinché chiunque la possa replicare; questo prevede un disegno di ricerca (ossia quali sono variabili dipendenti e quali le indipendenti), i soggetti da usare (età, sesso..), gli strumenti di cui avvalersi (test, scale..) e le procedure utilizzate (come e dove si è svolto l’esperimento).
  4. Risultati: Nella ricerca vengono riportati i dati salienti in risposta alle domande di ricerca, indicando inoltre le analisi effettuate. Lo stile usato x essi è descrittivo e i dati vengono riassunti in tabelle e grafici.
  5. Analisi e Discussione: Con la discussione emerge l’originalità della ricerca. Viene utilizzato uno stile interpretativo, x mostrare i fatti salienti e x supportare le ipotesi iniziali. Essa procede dai risultati specifici fino al generale, dimostrando come essi si inseriscono coerentemente con le ipotesi poste nell’introduzione.
  6. Conclusioni: È importante ke i propri risultati vadano sempre interpretati e ke si confrontino i propri risultati con quelli di altri studi, x poter così trarre infine le conclusioni generali e le prospettive future.
    Nota ke dopo le conclusioni è possibile inserire i ringraziamenti se desiderato, ma son cmq facoltativi. Con questi si ringraziano coloro ke hanno raccolto i dati, i colleghi, i referee e i finanziatori.
  7. Bibliografia: È una parte essenziale x chi fa ricerca e, in essa, sono riportate tutte le fonti citate nell’articolo, permettendo così a chi legge di approfondire alcuni temi specifici.
  8. Abstract e Parole chiave: l’abstract è un piccolo riassunto dell’articolo scientifico ed è quindi la parte principale del lavoro, xke è essa la prima a venir letta e giudicata da ogni lettore. Essa nn deve superare le 200-250 parole e deve riportare in breve tutti i dati salienti, tra cui l’introduzione, i metodi, i risultati più importanti e le conclusioni.
    Le parole chiave invece, sono al massimo 5 e devono indicare i concetti essenziali della ricerca.

Se desiderato, è inoltre possibile citare nella propria ricerca articoli, reports o capitoli di libri già esistenti. X farlo bisogna scrivere:

  • Cognome à Virgola à Iniziale Nome Puntata à Virgola à e così via x tutti gli autori (ma la seconda volta ke si citano, basta scrivere il primo nome - l’autore più importante - seguito da “et al”. X es Rossi, M., Verdi, G., ecc oppure Rossi, M., et al, …
  • Poi segue la data della pubblicazione tra parentesi: Rossi, M., et al (1930).
  • Poi segue il nome dell’articolo:  Rossi, M., et al (1930). Attenzione Focalizzata.
  • Poi segue il nome del libro (contenente capitoli e pagine). Rossi, M., et al (1930). Attenzione Focalizzata. Psicologia cognitiva, cap 2, pp 99-118.
  • È inoltre possibile citare anke documenti scaricati da internet. Anke qui vanno riportati i cognomi, nomi degli autori, la data, il nome dell’articolo. A questo poi segue la data in cui viene trovato il documento e l’indirizzo da cui è stato preso. Rossi, M., et al (1930). Attenzione Focalizzata. Recuperato il 30/4/05 da http:// www. Mind. Com

Le citazioni potranno poi riportare le parole esatte (= testo identico), delle parafrasi (= esprime lo stesso concetto con diverse parole) o con riassunti (= sintetizzano brevemente il concetto).
L’articolo dovrà poi essere spedito alla rivista adatta (à qst ovviamente dipende dal tipo di articolo scritto).
Infine, va tenuto conto dell’aspetto etico della ricerca. A causa della 2°GM, medici nazisti erano soliti commettere crimini atroci, e torture varie su pazienti ebrei x migliorare la ricerca e le conoscenze. X nn ripetere tale scempio, si stilò inizialmente il codice di Norimberga. Ad esso seguirono poi le norme dell’APA (american psychological association) ed infine il codice etico dell’AIP (associazione italiana psicologi). I principi generali di quest’ultima sono 3:

  • La competenza del ricercatore: esso è a conoscenza delle proprie possibilità e dei propri limiti
  • Integrità: bisogna fornire una trasparenza nelle qualifiche (= ossia quale tipo di formazione si ha ricevuto)
  • Responsabilità sociale: ossia garantire un rispetto totale delle persone, diffondere le conoscenze in modo veritiero, e dare una buona immagine della psicologia rispettando in generale le norme etiche

Le norme etiche prevedono inoltre un consenso informato (= x nn violare alcun diritto: in esso va specificato se i dati verranno analizzati in forma aggregata, ossia statisticamente, oppure in modo singolo. Ad esso deve poi seguire la firma del paziente e la data) e la libertà di ritiro (= ossia se un soggetto nn vuole intraprendere/proseguire l’esperimento x motivi personali, è libero di farlo: esso infatti nn deve avere alcun vincolo/obbligo). L’etica impone infine alcune cose: nn provocare danni permanenti/temporanei ai pazienti (sia ke essi siano umani, sia ke siano animali à in qst’ultimo caso, se proprio indispensabile, gli approcci dovranno risultare il meno invasivi possibili), garantire l’anonimato nella ricerca e la diffusione di dati veri, chiari e originali. L’inganno è tuttavia possibile, ma solo a patto ke esso sia assolutamente necessario e limitato il più possibile. Il soggetto ingannato, va inoltre informato al termine dell’esperimento sul raggiro su di lui compiuto.
VALIDITÀ   DELLA RICERCA
Una ricerca dev’essere valida, ossia avere una corrispondenza tra mondo reale e risultati ottenuti (es ascoltare Bach incrementa il numero di item memorizzati?). La validità può tuttavia avere più aspetti:

  • Validità Interna: ossia se la relazione musica-appendimento è vera nell’esperimento.
    X verificare qst bisogna vedere se è presente una relazione di causa-effetto tra variabile indipendente (causa) e variabile dipendente (effetto). Tale relazione causa-effetto è presente se:
    • Esiste un ordine temporale nei cambiamenti tra variabile indipendente e variabile dipendente (nn valido se si hanno cambiamenti diversi e confusi nel tempo; valido se invece i cambiamenti son costanti e ordinati).
    • È possibile escludere dei fattori di confusione (x es voglio verificare come la velocità di lettura cambia con un testo statico/dinamicoàfaccio venire un gruppo sperimentale di mattino e uno di pomeriggio: se xo va meglio quello di pomeriggio, potrebbe essere ke quello del mattino nn avesse dormito abbastanza e quindi stanco). Vanno quindi eliminati i fattori di confusione.

Nella validità interna va inoltre tenuto conto delle diverse relazioni tra le variabili:

  • Covariazione: qnd 2 variabili hanno variazioni concomitanti
  • Causazione: se A è causa di B, allora le variazioni di A causano una variazione di B: le 2 trasformazioni quindi, nn sono solo associate e concomitanti ma c’è una direzionalità (= implica un’asimmetria xke la causa precede l’effetto) ed un legame diretto (= xke il variare di una variabile causa il variare dell’altra).
  • Forza della relazione: ossia con quanta precisione i valori di una variabile ci permettono di prevedere i valori dell’altra variabile
  • Forma della relazione: verificando se la relazione è lineare o curvilinea

In generale, qnd si parla di nesso causale, è possibile distinguere 5 tipi di relazione:

  • Diretta: Qnd una variazione della variabile Causa produce un cambiamento nella variabile Effetto (AàB). Qst è un rapporto Asimmetrico, Direzionale (sennò reciproca), di Produzione (sennò spuria) e Immediato nel Nesso (sennò indiretta). Nota ke se elimino la causa, sparisce anke l’effetto (es assunzione caffeinaàattivazione fisiologica).
  • Indiretta: Il legame causale tra A e B è mediato da una 3° variabile C: C è pertanto detta Variabile Interveniente xke fa da ponte tra le 2 (AàCàB). Nota tuttavia ke il nesso causale tra A e B esiste, ma è dovuto solamente ad una catena causale tra le variabili (gruppo sociale à istruzione à QI). Qst xo nn significa ke A causi B direttamente (ossia gruppo sociale nn determina il QI, xke è l’istruzione a farlo).
  • Spuria: si osserva qnd si ha una covariazione (= 2 variabili cambiano insieme) senza ke xo vi sia una causazione: la covariazione tra A e B è quindi in realtà dovuta ad una terza variabile C ke agisce casualmente su entrambe (CàA; CàB). Nota xo ke il nesso tra A e B nn esiste (x es A: numero dei pompieri; B: danni causati dall’incendio; C: dimensioni dell’incendio; tuttavia il numero dei pompieri nn incide sui danni causati dall’incendio). C è definita variabile di controllo o variabile latente, xke la relazione fra A e B emerge solo qnd viene introdotta C.
  • Reciproca: qnd scompare la distinzione fra variabile causa e variabile effetto e nn si può dire quale delle 2 venga x prima, xke entrambe si influenzano a pari merito e contemporaneamente  (es domanda ó offerta)
  • Condizionata: la relazione fra A e B cambia in base al valore assunto da una terza variabile C (Aà(C)àB). X es A: età; B: ascolto musica classica; C: istruzione. L’età infatti conta molto sull’ascolto della musica classica, ma a tale fattore va anke aggiunto il livello d’istruzione ricevuto.

La validità interna può infine essere minacciata da errori dovuti al soggetto sperimentale, errori dovuti allo sperimentatore e, ovviamente, ad alcune variabili di disturbo:

  1. Storia Attuale: sono gli eventi storico/sociali ke possono intervenire nel corso dell’esperimento e ke si frappone in tal modo tra le 2 (VIà(SA)àVD). Es A: costo della farina; B: produzione del pane; SA: tasse sulla farina.
    X rimediare ad essa è tuttavia possibile controllare la costanza, mantenendo costanti le condizioni dei 2 gruppi, e abbreviare l’intervallo tra le prove.
  2. Processi di Maturazione: Sono i cambiamenti biologici (età, coordinazione motoria..) o psicologici (motivazione, apprendimento) ke riguardano i soggetti e ke intervengono sulla variabile dipendente. Essi intervengono spesso negli studi longitudinali (= x come cambia nel tempo un gruppo di bimbi) e negli studi sui bimbi (= x il loro rapido sviluppo psico-fisico).
    X rimediare ad essi si possono utilizzare misurazioni ripetute ad intervalli costanti (da scegliere in base al fenomeno ke stiamo registrando) e l’utilizzo di un gruppo di controllo.
  3. Effetto delle Prove: ossia ogni effetto sulla VD dovuto alla precedente esposizione a prove simili (àdovuto a fattori come l’apprendimento, la pratica, la familiarità..). Dopo la 1° prova siamo infatti più veloci rispetto alla 2°, poiché capiamo come funziona.
    X rimediare a ciò si può eliminare il pre-test (comporta meno precisione, ma è concessa se i gruppi son ben selezionati) oppure far percepire il pre-test come un evento ordinario (camuffandolo in modo ke i soggetti nn lo percepiscano come tale).
  4. Strumentazione: ogni effetto ke la strumentazione (interviste, questionari..) e lo sperimentatore (stanchezza, poca esperienza, disattenzione..) hanno sulla VD. Accade spesso quando nel pre-test e nel post-test cambia la strumentazione o la variabile dipendente).
    X rimediare basta mantenere costanti strumentazione e sperimentatori.
  5. Effetto della Regressione Statistica: chiamata anke regressione verso la media, xke nelle prove ripetute sugli stessi soggetti, i punteggi estremi delle prime prove tendono verso i valori medi nelle prove successive.
    X rimediare sarebbe opportuno togliere a caso dal campione estremo un gruppo di controllo nn sottoposto al trattamento.
  6. Selezione: il gruppo sperimentale  e quello di controllo devono essere equivalenti rispetto a tutte le variabili, affinché ogni differenza sia imputabile solo alla manipolazione sperimentale (es se seleziono un gruppo di volontari, essi saranno altamente motivati, a differenza di un gruppo di universitari ke lo faranno invece solo x i crediti à la motivazione nel partecipare all’esperimento potrebbe così risultare una variabile di disturbo).
    A ciò si potrebbe rimediare tramite un bilanciamento tra i gruppi mediante randomizzazione e pareggiamento.
  7. Mortalità: intesa come abbandono: in ricerche longitudinali o con pre e post-test, alcuni soggetti possono abbandonare l’esperimento x motivi contingenti o x perdita d’interesse. Siccome rimarranno solo i più motivati, cambieranno gli effetti sulla VD.
    L’unico rimedio consiste nell’effettuare le prove in tempi ravvicinati (cosa tuttavia nn sempre possibile x tutti gli esperimenti).
  8. Interazione tra selezioni ed altri fattori (storia, maturazione..): la selezione può avvenire su gruppi ke differiscono x altri fattori come la maturazione o la storia, combinando il disturbo sulla VD (es x un esperimento sulla memoria chiamo un gruppo sperimentale e un gruppo di studenti di psicologia ke ha studiato tecniche x migliorare la memorizzazione à le differenze tra gruppi, probabilmente, saranno dovute nn solo alla manipolazione sperimentale).
  • Validità Esterna: ossia se la relazione musica-apprendimento è vera anke x altri contesti. Qst è possibile se i risultati del mio esperimento si possono estendere a soggetti, situazioni, tempi e luoghi diversi da quelli della ricerca. Ogni buona ricerca deve difatti essere generalizzabile.
    Nota ke empiricamente si potrebbe ripetere l’esperimento controllando una variabile x volta, ma siccome qst sarebbe troppo dispendioso, è più opportuno controllare la validità di popolazione (effettuando su altre persone) e la validità temporale (possibile in altri tempi).
    La validità esterna si fonda spesso su basi filosofiche e su basi empiriche:
    • Basi Filosofiche: presuppone un ordine della natura (= l’effetto riscontrato in laboratorio dev’essere riscontrabile ovunque in natura, e ke quindi nn cambia x luogo o situazione), il determinismo (= tutti gli eventi son determinati da eventi precedenti ed il loro verificarsi obbedisce a leggi universali naturali) e la parsimonia (= a parità di condizioni, tra 2 spiegazioni la migliore è la più semplice).
    • Basi Empiriche: presuppongono una ripetibilità della ricerca (= la ripetizione della ricerca con le stesse modalità di ricerca deve produrre gli stessi risultati; modificando le variabili è inoltre possibile avere indicazioni sull’attendibilità della ricerca), una validità di popolazione (= i dati ottenuti nel campione devono essere generalizzabili alla popolazione, ossia all’universo degli individui. In tal modo si indica la rappresentatività del campione. Nota tuttavia ke x un’adeguata rappresentazione è opportuno selezionare coerentemente il campione - x es nn paragonando topi a umani - e tenendo alto il numero del campione - nota ke più è grande  e più è rappresentativo, ma va cmq fatta attenzione all’ipernumerosità, xke se uso troppe persone c’è il rischio di sovrastimare dei fattori) e una validità temporale (= i risultati della ricerca devono mantenere la loro validità nel tempo: tuttavia qst nn sempre accade a causa di variazioni stagionali - influisce sui comportamenti relativi alla stagione - di variazioni cicliche - come i ritmi circadiani - e variazioni personologiche - come il mutamento di opinioni, idee e gusti -).

In generale, x tutelare la validità esterna, si può affermare ke più la ricerca è condotta in una situazione simile al contesto di vita normale dei soggetti, e più è generalizzabile. Si dovrebbero utilizzare a tal fine misurazioni nn intrusive, raccogliere i dati prima ke i soggetti se ne accorgano, nn rivelare (nei limiti dell’etica) i motivi della ricerca ai soggetti, ricorrere a situazioni naturali e usare disegni sperimentali complessi.

  • Validità di Costrutto: difficoltà nella misurazione dell’elemento (ho misurato la cosa ke volevo oppure un altro fattore?). Da qui, l’importanza di scegliere gli indicatori migliori x definire ciò ke voglio studiare.
    Un costrutto è un complesso organizzato della vita psichica (nn osservabile direttamente) di cui si individuano degli indicatori osservabili, inferiti dal comportamento. L’individuazione degli indicatori osservazionali è chiamata definizione operazionale (x es: come definisco l’amore? Devo trovare un indicatore misurabile, dando così una definizione operazionale dell’amore à es ansia: battito cardiaco, pressione, paura..). Nota ke a seconda della definizione operazionale otterrò dei risultati diversi.
    Esistono diverse minacce alla validità di costrutto: insufficiente definizione teorica dei costrutti, inadeguata definizione operazionale (spesso un solo indicatore potrebbe nn rappresentare bene una VI complessa à x definire la paura è ok il battito cardiaco, ma esso nn scinde dalle altre emozioni forti) e, infine, l’ambiguità della VI (qnd nn è chiaro quale sia la vera VI in quanto più fattori potrebbero essere la causa di un effetto).
    Altri effetti indesiderati potrebbero essere quelli legati all’effetto Hawthorne (= distorsione nel comportamento ke si verifica qnd i soggetti sanno di far parte dello studio: i lavoratori ad es, sapendo di essere analizzati, incrementavano la produttività), l’effetto del volontario (= si hanno aspettative sui volontari ed essi tentano quindi di risultare i migliori soggetti possibili, anke a costo di nn essere spontanei o sinceri) e infine l’ansia da valutazione, dovuta ad una desiderabilità sociale.
    X sopperire agli effetti e alle minacce, sarebbe bene stabilire una definizione chiara del costrutto (cosicché le operazioni empiriche messe in atto x misurarlo siano valide), raccogliere tipi di dati differenti (in modo di avere osservazioni in grado di stabilire inequivocabilmente ke la rappresentazione empirica della VI produca i risultati attesi). Va infine appurato ke la variazione dei dati raccolti riguardi la misura correlata con la rappresentazione empirica della VI e nn con variabili concettualmente differenti.
    Sarebbe infine opportuno effettuare delle manipulation checks, ossia delle verifiche sulla manipolazione delle VI (effettuabile tramite interviste ai soggetti dopo il trattamento x verificare se il costrutto è stato raggiunto, oppure stabilendo indicatori comportamentali atti a rilevare  l’effetto delle operazioni sperimentali, come gli indici fisiologici).
  • Validità Statistica: se i risultati derivano effettivamente dalla manipolazione sperimentale della variabile indipendente o se sono invece casuali. Ci si domanda quindi se il rapporto tra VI e VD è dovuto alla causazione o alla casualità.
    X capire ciò, si ricorre ad analisi statistiche (calcolo di probabilità e inferenze statistiche) in cui si confrontano i dati osservati empiricamente con quelli teorici previsti dal calcolo delle probabilità (differenza tra gruppi osservata ó confronto statistico ó differenza teorica tra gruppi).
    Se la validità osservata è maggiore di quella teorica, potrebbe essere dovuto ad effetti dovuti al trattamento sperimentale; se la variabilità osservata è invece simile alla variabilità teorica, potrebbe esser dovuto al caso (x differenze individuali, o errata randomizzazione).
    Nota ke la validità statistica si applica ad ipotesi statistiche, ossia ad attribuzioni di probabilità agli eventi di una variabile (es tendenza della depressione è mediamente superiore nei ceti medio-alti rispetto ke a quelli medio-bassi). X la verifica di un’ipotesi statistica (x es voglio studiare se la presenza di altre persone nello stesso ambiente influisce sull’attivazione fisiologica) si formulano:
    • Ipotesi Nulla (H0): afferma la MANCANZA dell’effetto ipotizzato (= nn influisce, e quindi gruppi sperimentali e gruppi di controllo hanno gli stessi valori)
    • Ipotesi Alternativa (H1): afferma la PRESENZA dell’effetto ipotizzato (= influisce e dunque i gruppi sperimentali e di controllo hanno valori statisticamente diversi à ipotesi bidirezionale; oppure il gruppo sperimentale ha valori maggiori rispetto al gruppo di controllo à ipotesi monodirezionale)

Nota ke:
Nella verifica di un’ipotesi statistica è inoltre importante dare la definizione di una zona di rifiuto di H0: la zona di rifiuto si decide all’interno della distribuzione campionaria della statistica, sopra o sotto un certo valore critico. Pertanto, si rifiuta H0 se esso supera o è uguale al valore critico, con una probabilità inferiore o uguale ad α (à esso è il livello di significatività).
X convenzione, α = 0,05 oppure α = 0,01. Quindi, si rifiuta H0 con un margine di errore del 5% o dell’1%.
Se il risultato dell’analisi statistica è MINORE di α, si rifiuta H0 e si accetta H1 (poiché il risultato viene considerato significativo).
Se il risultato dell’analisi statistica è MAGGIORE di α, si accetta H0 e si rifiuta H1 (in quanto il risultato nn è significativo)
Nella verifica di un’ipotesi statistica  si potrebbe tuttavia incappare in errori del primo tipo e del secondo tipo:

  • Errore del Primo Tipo: qnd si rifiuta H0 sebbene sia VERA, oppure qnd si accetta H1 sebbene sia FALSA.
    Quindi commettiamo un errore del primo tipo qnd riscontriamo correlazioni tra variabili ke in realtà nn esistono (= vediamo troppo nei dati à se nn si hanno precise ipotesi sulle correlazioni, è possibile ke si giunga casualmente, tramite l’incrocio di più dati - il cosiddetto fishing dei dati, xke si va a pesca di essi - ad una correlazione significativa ke è tuttavia inesistente).
  • Errore del Secondo Tipo: qnd si accetta H0 sebbene sia FALSA, oppure qnd si rifiuta H1 sebbene sia VERA.
    La probabilità di commettere un errore di questo tipo viene indicata col simbolo β (à esso indica la probabilità di rigettare CORRETTAMENTE un’ipotesi nulla qnd essa è effettivamente falsa. Qst è definibile come Potenza del Test, ossia la capacità di un test di evidenziare gli effetti di una variabile, dato il campione e la sua variabilità interna).
    Commettiamo dunque un errore del secondo tipo, qnd nn riscontriamo correlazioni significative tra le variabili, sebbene esistano veramente (= vediamo troppo poco nei dati à qst può esser dovuto o ad una bassa potenza statistica del test, ke nn coglie le differenze -spesso dovuto a campioni troppo piccoli o x livelli di α troppo bassi- o x violazioni degli assunti alla base del test statistico -poiché ogni test va applicato in particolari condizioni-).

È infine possibile aumentare la validità statistica in 3 modi:

  • Elevando il livello di Significatività: si elevano i livelli di α, ma così facendo si corre il rischio di incappare in un errore del 1° tipo; sarebbe dunque più opportuno incrementare la sensibilità del test, aumentando x es il numero dei soggetti.
  • Aumentando la grandezza dell’effetto: tramite l’aumento dell’intervallo tra i livelli di della variabile indipendente, usati x definire la condizione sperimentale
  • Ridurre l’errore casuale
  • Validità Ecologica: i risultati sarebbero identici a quelli riportati in laboratorio se effettuati in un contesto naturale (= in contesti di vita normali x la popolazione)?
    I dati raccolti devono infatti essere rappresentativi del comportamento dell’individuo nella sua realtà abituale (ma il laboratorio è troppo artificiale  ed inconsueto). Va dunque distinta l’artificialità (= caratteristica dell’esperimento, poiché lontano e diverso dalle situazioni di vita reale) dall’artificiosità (= mancante nell’esperimento, in quanto forzatura delle regole). Vediamo ora l’evoluzione di questi concetti:
    • Lewin (1943): disse ke ciò ke il soggetto percepisce dell’ambiente in un dato momento è funzione della situazione di quel momento soltanto: x studiarlo occorre quindi determinare le proprietà della situazione in quel dato istante. Inoltre, ad interessarci, nn è la situazione reale concreta, ma quella vissuta psicologicamente dal soggetto.
      Quindi, nn è sufficiente uscire dal laboratorio: occorre analizzare la percezione soggettiva della persona ke si studia (sia verso il compito, sia verso l’ambiente) à quindi, quello proposto è un approccio di tipo fenomenologico, ossia la descrizione di un insieme di fenomeni così come essi si manifestano all’esperienza.
    • Brunswik (1956): fu il primo a sollevare il problema della validità ecologica, creando alcuni concetti fondamentali del metodo, tra cui la Boundary Zone (= “zona di confine” à è inteso come aspetti del mondo fisico e sociale ke influenzano lo spazio di vita personale), gli stimoli prossimali (= l’eccitazione sensoriale periferica, nn mediati dagli organi di senso) e gli stimoli distali (= gli stimoli ke agiscono direttamente sugli organi di senso e ke sono indipendenti dalla percezione ke generano).
      Egli sostiene ke la percezione studiata in laboratorio è una condizione artificiale e ke il controllo delle variabili impone una serie di vincoli ke minacciano la naturalezza e  l’ecologia della percezione umana: occorre quindi eliminare le caratteristiche tipiche del laboratorio.
      Nota infine ke gli stimoli hanno senso solo x il significato ke assumono nella percezione del soggetto (vanno pertanto descritti in termini ecologici e nn fisici). Esistono infine gli stimoli distali nascosti, ossia le caratteristiche fisiognomiche degli oggetti sociali.
      Sono poi da sottolineare i disegni di ricerca rappresentativi, i quali tengono conto delle variabili ecologiche (= le diverse condizioni in cui l’uomo vive) e ke svolgono quindi gli esperimenti nelle abitazioni dei soggetti e nel corso delle normali attività quotidiane.
    • Gibson (1979): propone un’ottica ecologica, in cui da una visione evoluzionistica della cognizione. Crea il concetto di Affordance (= quello ke il mondo presenta all’organismo viene colto solo grazie al significato determinato dall’evoluzione) e, a causa di esso, vi è interesse a studiare solo l’ambiente significativo, x le affrodances ke presenta. L’organismo dunque nn elabora gli stimoli: li coglie direttamente grazie alle info GIÀ PRESENTI nell’ambiente. I 6 concetti chiave dell’ottica ecologica sono:
      • Assetto Ottico Ambiente: è la struttura di superfici ke appare all’osservatore in un momento dato, da un punto di vista dato
      • Flusso Ottico: è un assetto mobile provocato da specifici movimenti dell’osservatore
      • Luce ambiente - Luce radiante
      • Stimolazione - Informazione
      • Affordance: invito ad un determinato comportamento offerto dall’ambiente
      • Invariante: ciò ke resta invariato nel flusso ottico (es rapporti topologici, cromatici..)
    • Bronfenbrenner (1986): x lui la validità ecologica risiede nella conoscenza ke lo  sperimentatore  ha sull’esperienza dei soggetti (e nn tanto nella differenza tra laboratorio e ambiente normale: anke il laboratorio va bene se viene esperito dai soggetti in modalità conosciute e gestite dal ricercatore) à quindi nn importa ke la situazione sia artificiosa: è sufficiente ke il ricercatore ne sia al corrente e abbia incluso nel disegno sperimentale tale variabile. Un es è la camera di Ames: osservando questa da uno spioncino la si vedrà regolare, al contrario delle persone al loro interno (à qst xke il ns sistema visivo si è evoluto x percepire situazioni e configurazioni ecologiche, e nn strutture artificiose fa osservare in condizioni innaturali -come in uno spioncino- ).

Le minacce alla validità ecologica dipendono dall’interpretazione ke si da a quest’ultima: se la si intende come Brunswik (= ossia artefatti da laboratorio: ambiente poco familiare, presenza di oggetti ignoti o strani..) o come Bronfenbrenner (= tutto ciò ke impedisce allo sperimentatore di conoscere le modalità con cui il soggetto percepisce la situazione, indipendentemente dall’ambiente).
Vediamo infine l’Interosservazione (= un metodo della fenomenologia sperimentale); secondo la tradizionale impostazione sperimentale occorre rispettare alcuni principi, tuttavia poi criticati da Bozzi (1989) x costruire in tal modo il metodo alternativo dell’interosservazione:

  • TRADIZIONE: l’oggetto va presentato in un ambiente il più spoglio e isolato possibile, lontano dai rumori
    BOZZI: è bene eliminare l’atmosfera da laboratorio: ogni ambiente va bene se permette di rilevare un determinato fatto, le cui proprietà sono degne di attenzione
  • TRADIZIONE: l’osservatore dev’essere ingenuo (deve ignorare ciò ke si cerca e nn essere suggestionato)
    BOZZI: l’osservatore deve sapere abbastanza di quello ke si cerca in quanto collaboratore e  in modo da potersi così concentrare sugli aspetti salienti della sperimentazione e rendendosi contemporaneamente conto dei possibili problemi
  • TRADIZIONE: la consegna dev’essere rigida, univoca e nn contenere esplicitamente / implicitamente cose ke somiglino a suggerimenti
    BOZZI: la consegna dev’essere articolata e versatile, in modo così da consentire atteggiamenti osservativi differenti ed un’esplorazione esauriente; i suggerimenti devono poi essere accettati, respinti o ridimensionati
  • TRADIZIONE: è importante la prima impressione: il soggetto nn può ne ripensare ne modificare la sua risposta
    BOZZI: la prima impressione è solo la prima di numerose soluzioni possibili e nn è quindi detto ke sia la più stabile e la più fenomenologica: essa va dunque completata con tutte le altre
  • TRADIZIONE: al soggetto è infine vietato tornare sui suoi passi x cambiare la risposta
    BOZZI: l’osservazione guadagna in finezza qnd è abbastanza prolungata, xke uno impara a guardare: quindi occorre ke ogni tanto gli osservatori tornino sui loro passi
  • TRADIZIONE: la risposta deve essere univoca e classificabile
    BOZZI: la risposta dev’essere quella ke l’osservatore si sente di dare, indipendentemente dalle classificazioni prefigurate nella mente dello sperimentatore (à egli infatti potrebbe anke avere idee sbagliate).

Durante un esperimento di interosservazione accadono poi diverse cose: tra gli osservatori emerge un leader, in grado di scoprire tutte le soluzioni percettive possibili, le quali emergono secondo un ordine nn del tutto casuale. L’evidenza delle soluzioni viene poi discussa, in quanto la prima nn sempre è la più evidente: gli interosservatori si comunicano così i mezzi x ottenere certe soluzioni . In tal modo, durante la seduta, il linguaggio fenomenologico si affina (poiché l’osservazione continua induce ad una scelta sempre più sensibile degli aggettivi) e si comincia a scindere ciò ke si vede da ciò ke si conosce à in tal modo si affina l’occhio fenomenologico.
Nota ke durante l’interosservazione lo scopo dell’esperimento dev’essere chiaro, così come il fenomeno ke va osservato. I soggetti possono poi discutere liberamente (tra loro e con lo sperimentatore), chiedere delucidazioni prima e durante la prova, muoversi, cambiare punto di vista, manipolare il materiale, dare/ricevere suggerimenti, correggere le affermazioni proprie e altrui, ritrattare i giudizi espressi e decidere la fine dell’osservazione.
CONTROLLO DEGLI EFFETTI DI DISTURBO
Il controllo è qualsiasi procedimento atto a neutralizzare o a controllare le potenziali minacce alla validità di un esperimento (= qualsiasi mezzo impiegato x eliminare le possibili minacce alla validità di una ricerca).
Al contrario, viene definito effetto di disturbo ogni tipo di minaccia alla validità di un esperimento. I metodi x neutralizzare gli effetti di disturbo riguardano gli esperimenti di controllo ed il controllo sperimentale:

  • ESPERIMENTO DI CONTROLLO: Serve x essere certi ke gli effetti sulla variabile dipendente, siano dovuti alla sola manipolazione sperimentale della variabile indipendente. Essa consiste in una condizione identica alla situazione sperimentale, SENZA xo l’intervento della variabile indipendente. Nell’esperimento di controllo è possibile distinguere tra:
    • Gruppo di controllo (o disegno TRA gruppi): implica l’uso di 2 gruppi in cui quello di controllo  fa l’esperimento con la VI e uno sperimentale lo fa senza. Dall’analisi dei dati emerge poi eventualmente una differenza statisticamente significativa
    • Condizione di controllo (o disegno ENTRO gruppi): prevede l’uso di 1 gruppo ke tuttavia adotta 2 diverse condizioni: nella condizione sperimentale usa la VI, mentre nella condizione di controllo ripete le stesse cose eccetto l’uso della VI

Quindi, l’esperimento di controllo serve a fornire un punto di paragone fisso (esperimento o gruppo di controllo) con cui confrontare l’effetto di una particolare Variabile Indipendente.

  • CONTROLLO SPERIMENTALE: esso indica le modalità di riduzione e controllo delle sorgenti di variabilità nella ricerca, trovando varie strategie di controllo:
    • Strategie generali di controllo: si pratica tramite il controllo:
      • Nel laboratorio: esso permette di eliminare il maggior numero possibile di variabili di disturbo, controllare x quanto possibile le variabili presenti e mantenere costanti le variabili di disturbo eventualmente presenti e nn eliminabili (à controllo della costanza: stessi disturbi x tutti i soggetti).
        Sono poi da sottolineare le caratteristiche di richiesta: sono indizi colti dal soggetto (grazie alla procedura, alle istruzioni o all’ambiente circostante), ke possono far emergere risultati dovuti alle credenze dei soggetti verso il trattamento piuttosto ke al trattamento vero e proprio (es “se sono solo in qst stanza sarò sicuramente filmato di nascosto, quindi..). Esse si possono tuttavia controllare mediante il controllo della costanza (= stessi disturbi x tutti i soggetti), la randomizzazione delle condizioni ambientali, la ricerca condotta in ambiente naturale, la raccolta dei dati prima ke il soggetto se ne accorga ed il singolo cieco (a tali fini sono utilizzabili interviste post-sperimentali e role-playing).
      •  Nella preparazione della ricerca: la preparazione dovrebbe consistere nella produzione di una situazione in cui, le variabili dell’esperimento produrranno la relazione più forte. Infatti, se scelgo una situazione sperimentale in debole, rischio di nn far emergere gli effetti della VI sulla VD, oppure di produrre risultati ambigui (es voglio studiare la conduttanza elettrica nei neuroni: differenza enorme se x l’esperimento scelgo l’assone umano o quello gigante del calamaro).
        Inoltre, anke la strumentazione hardware/software dev’essere a tal proposito accurata.
      • Nella scelta della VI: essa deve poter essere facilmente tradotta in termini di operazioni concrete, manipolabile in forma quantitativa (= manipolabile e misurabile) e nn deve danneggiare fisicamente e/o psicologicamente il soggetto.
        Nota ke il numero delle condizioni dipende dalle considerazioni teoriche e pratiche; è inoltre consigliato coprire la massima parte possibile della gamma di osservazione (x esplorare il sistema fino ai suoi limiti) e utilizzare stimoli abbastanza ravvicinati (x evitare così la mancata osservazione di effetti interessanti).
      • Nella scelta della VD: esso è un indicatore del comportamento studiato: ank’essa deve avere i medesimi aspetti etici e pratici della VI. Soprattutto è xo necessario ke tra la VD ed il fenomeno studiato debba esservi una diretta connessione concettuale, ke sia poi facilmente quantificabile (= traducibile in numeri senza ambiguità) e sufficientemente sensibile ai cambiamenti della VI.
      • Controllo del Tempo: è effettuato tramite un monitoraggio sulla stabilità nel tempo degli effetti del trattamento e della validità dei risultati della ricerca; controlla inoltre l’ora nel giorno o del giorno nella settimana. Esso guarda anke la durata della prova (= x evitare peggioramento x stanchezza / miglioramento x allenamento) e la durata dell’intervallo tra le prove (= x evitare maturazione dei soggetti, mortalità ed eventi storici influenti).
      • Controllo nella misura delle risposte: al fine di garantire la ripetibilità dell’esperimento, occorre usare misure oggettive (= libere da limiti sensoriali, stati fisiologici  o atteggiamenti dell’osservatore) e controllata la sensibilità dello strumento di misura (= la variazione minima nell’entità misurata ke provoca un cambiamento nel sistema di misura).
      • Controllo con ripetizione dell’esperimento: esso può avvenire o con la ripetizione esatta dell’esperimento (= cambiando solo soggetti, tempi e luoghi) o con la ripetizione sistematica (= usata più di frequente xke si cambiano sistematicamente alcuni fattori x verificare il loro rapporto con la variabile dipendente ) à nota ke essa tuttavia nn garantisce validità xke potrebbero essere sistematicamente ignorati fattori di confusione.
    • Strategie di controllo sui soggetti: va posto in particolar modo un controllo sulle conoscenze dei soggetti, in quanto essi possono avere competenze psicologiche o teorie ingenue ke possono interferire col compito (à in tal caso bisogna dare consegne ke nn gli permettano di fare inferenze, oppure far compilare un questionario dopo la prova x selezionare i soggetti esperti; bisogna inoltre assicurare l’anonimato della prova, garantire ke i dati saranno analizzati in modo aggregato e chiarire ke nn esistono risposte giuste in quanto l’interesse della ricerca è quello di avere il comportamento medio), possono conoscere la procedura sperimentale o cercare di intuirne la logica (à occorre pertanto dare info chiare e complete, instaurare una relazione di fiducia e collaborazione, invitare ad un atteggiamento ingenuo/spontaneo e ridurre l’ansia garantendo la possibilità di abbandonare la prova in qualsiasi momento e l’info totale al termine della prova) o, possono conoscere le finalità dell’esperimento da precedenti soggetti, a causa dell’effetto diffusione (à è quindi necessario invitare alla riservatezza, tenere isolati i gruppi sperimentali oppure accertarsi prima della prova ke la persona nn conosca l’esperimento in questione).

 

    •  
    • Strategie di controllo sullo sperimentatore: le aspettative dello sperimentatore (o effetto Rosenthal) possono intervenire sull’esito della ricerca a vari livelli: nella fase di selezione del campione, qnd si forniscono istruzioni ai soggetti, nella raccolta e nell’analisi dei dati, e nell’interpretazione dei risultati (introducendo magari un’ipotesi calibrata in caso di risultati incongruenti).
    • Strategie di controllo sugli effetti dello sperimentatore e dei soggetti: una strategia di controllo consiste nell’uso del singolo cieco (= i soggetti nn sanno se appartengono al gruppo sperimentale o al gruppo placebo) o nell’uso del doppio cieco (= né gli sperimentatori, né i soggetti sanno chi appartiene al gruppo sperimentale e al gruppo placebo).
      Le altre ke possono essere usate sono l’automazione delle istruzioni (xke tono di voce, espressioni nn verbali o determinate parole possono interferire sul compito: meglio automatizzare dunque la somministrazione delle istruzioni), l’uso di più osservatori o codificatori, l’uso dell’inganno (praticato tramite l’obbedienza all’autorità oppure col conformismo percettivoà il soggetto / gruppo subisce l’influenza di giudizi erronei e si adegua alla maggioranza).
    • Strategie di controllo basate sul campionamento e assegnazione dei gruppi: x l’esperimento avviene un campionamento della popolazione; con tale selezione si avrà poi un campione ke verrà infine scisso in gruppi tramite assegnazione (Popolazione à campionamento à Campione à assegnazione à Gruppi).  Vediamo ora questi passaggi.
      Il campionamento può essere
      •  casuale (= qnd ogni elemento della popolazione ha la stessa probabilità di essere scelto x formare il campione) e, in tal caso, può essere con o senza ripetizione / reinserimento, casuale stratificato (= riporta in proporzione alcune caratteristiche salienti della popolazione), oppure un campionamento ad hoc (= fatto solo con soggetti facilmente reperibili: in tal modo, tuttavia, nn è possibile generalizzare troppo). Il campionamento può infine essere fatto
      • sulla popolazione totale (ma in tal caso vi è difficoltà a generalizzare correttamente), sulla popolazione accessibile ( media difficoltà nella corretta generalizzazione) oppure sul campione rappresentativo (possibilità di generalizzare correttamente). A causa di ciò, si procede solitamente partendo dal campione rappresentativo à popolazione accessibile à popolazione totale.

L’assegnazione può invece essere

      • un’assegnazione casuale (= qnd si controlla la variabilità interna ed esterna, qnd controbilancia le variabili note e quelle sconosciute). Essa viene praticata assegnando alternatamente i soggetti ad uno dei 2 gruppi grazie ad una sequenza di numeri casuali (es se la sequenza è 4968 i soggetto 4 e 6 vanno nel gruppo 1, mentre i soggetti 9 e 8 vanno nel gruppo 2)
      • un pareggiamento (o matching) ke deve applicarsi qnd i campioni sono ridotti (sotto le 20-30 unità), qnd vi è il sospetto ke vi sia una variabile di disturbo correlata con la variabile dipendente (x es l’età) o qnd vi è la possibilità di esaminare i soggetti prima dell’esperimento x dividerli in gruppi. Esso consiste nell’ordinare (x numeri: S1, S2..) i soggetti in base alla variabile influente (es l’età) e si dividono poi a coppie secondo l’ordine appena creatosi (S1/S2; S3/S4..). A qst può poi seguire un pareggiamento semplice (si distribuiscono alternativamente ai gruppi A e B) oppure uno casuale (si distribuiscono casualmente ai gruppi A e B). A qst punto si applica il trattamento e si analizzano le differenze tra i membri delle coppie (es S1-S2; S3-S4 ..); tali differenze saranno poi i punteggi su cui applicare le analisi statistiche.

L’assegnazione può poi essere fatta tramite il metodo dei blocchi (= si dividono i soggetti in blocchi separati, in base alla variabile influente) oppure mediante un disegno sperimentale entro i soggetti, in cui i soggetti sono il controllo di loro stessi.

    • Effetti di Disturbo dovuti ai soggetti: gli effetti di disturbo maggiore sono legati alla Selezione: la maggior parte dei risultati in psicologia si basa su dati relativi a topi o universitari (à rischio di nn avere validità esterna); gli universitari, in particolar modo, nn sempre risultano essere campioni rappresentativi, poiché hanno maggiori abilità cognitive, tendenze ad accondiscendere all’autorità, una relazione più instabile coi pari.. Tuttavia, va notato ke la rappresentatività dipende anke dalla variabile studiata (x es, in genere, i processi cognitivi di base come la percezione e l’attenzione nn presentano grandi differenze).
      Un altro fattore di disturbo influente è quello legato ai soggetti volontari e nn volontari: i volontari mostrano spesso una propensione alla desiderabilità sociale (al fine di dare una buona immagine di Sé) e spesso sono più curiosi di fare nuove esperienze (= sensation seekers). I volontari possono partecipare gratuitamente o a causa  di ricompense (cfu o soldi)
    • Effetti dell’Ordine e della Sequenza: l’effetto dell’ordine si ha qnd i soggetti devono affrontare più blocchi di prove: l’ordine delle prove può determinare miglioramenti nella prestazione (x pratica / familiarità) o peggioramenti (stanchezza / fatica / noia). Occorre dunque bilanciare la prestazione della prove, in modo ke ognuna compaia lo stesso numero di volte x 1°, 2°, 3°..
      L’effetto della sequenza è invece l’effetto ke le prove precedenti hanno lasciato su quelle successive (= come le precedenti influenzano le successive) à es se devo stimare un certo peso a mano: un oggetto di medio peso verrà sottostimato a “leggero” se preceduto da un peso molto pesante. Anke qui occorre dunque ke ciascuna prova sia preceduta lo stesso numero di volte dalle altre prove.
      Gli effetti dell’ordine e della sequenza si controllano dunque tramite la tecnica del controbilanciamento.
    • Controbilanciamento: esso può essere fatto tra soggetti o entro soggetti:
      • Controbilanciamento TRA soggetti: si creano tanti gruppi quante sono le combinazioni delle prove in sequenza. Si può usare un controbilanciamento completo (= qnd si applicano tutte le possibili combinazioni à 2 prove: 2 combinazioni; 3 prove: 6 comb; 4 prove: 24 comb; 5 prove: 120 comb..nota ke il numero delle prove coincide con quello delle condizioni e quello delle combinazioni coincide coi soggetti à 3 condiz: 6 soggetti..), un quadrato latino (= con essa ogni prova deve apparire un numero uguale di volte in ogni posizione e ogni prova dovrà sempre precedere un tipo e seguire un tipo:
        Soggetti                Ordine
        1                            A à B à C à D
        2                            B à C à D à A
        3                            C à D à A à B
        4                            D à A à B à C

Nota ke l’ordine è sempre ABCDABCD.. ma ke in tal modo si possono controllare gli effetti dell’ordine ma nn della sequenza) e, infine, un quadrato latino bilanciato (= esso è identico al precedente, ma è in grado di controllare sia gli effetti dell’ordine ke quelli della sequenza; inoltre, il vantaggio del quadrato latino è con 4 prove, anziché usare 24 soggetti o multipli di 24 -come nel controbilanciamento completo- se ne possono usare 4 o multipli di 4:
Soggetti Ordine
1                             A à B à C à D
2                             B à D à A à C
3                             C à A à D à B
4                             D à C à B à A
Nota ke la sequenza è ABCD (vert) x ABCD (orizz) x DCBA (vert) x DCBA (orizz)

  • Controbilanciamento ENTRO soggetti: ogni soggetto viene sottoposto a tutte le combinazioni delle prove (= lo stesso soggetto farà A à B e poi B à A..). I metodi ke si possono utilizzare sono la randomizzazione dell’ordine delle prove (= se lo stimolo dev’essere presentato molte volte), il controbilanciamento inverso (= uso di una sequenza fissa ma in 2 sensi à ABC, CBA: in tal modo si controllano gli effetti dell’ordine, ma nn della sequenza) e la randomizzazione a blocchi (= usa una randomizzazione dell’ordine delle prove all’interno dei blocchi: in tal modo si controllano gli effetti dell’ordine e della sequenza)

Quindi, grazie al controllo sperimentale, si limitano le fonti di variabilità della ricerca, in modo da affermare ke i cambiamenti osservati nella VD sono dovuti alla VI.
VALIDITÀ E ATTENDIBILITÀ
La misurazione è un processo di connessione tra concetti astratti e indicatori empirici, ke coinvolge una pianificazione esplicita e organizzata x classificare e quantificare i dati particolari in questione (= gli indicatori) in termini del concetto generale nella mente del ricercatore. Si crea così una relazione fra risposta osservabile (empirica) e concetto sottostante nn osservabile (teorico).
Si definisce invece indicatore la variabile, o la misura empirica ke indica il costrutto nn osservabile tramite una regola di corrispondenza. Gli indicatori possono distinguersi in

  • Indicatori Riflettivi: sono le conseguenze del costrutto, le sue manifestazioni empiriche (es costrutto: attenzione à indicatori riflettivi: tempi di risposta veloci, attivazione fisiologica..). X essi si applicano tecniche di analisi fattoriale in fattori comuni
  • Indicatori Formativi: quelli ke  contribuiscono o causano il costrutto stesso (es costrutto: stress ß indicatori formativi: cambio lavoro, trasloco, divorzio..). X essi si applicano tecniche di analisi dei componenti principali

Un indicatore è semplice qnd insieme ad altri indicatori concorre a definire direttamente il costrutto; qnd invece gli indicatori sono più complessi, possono essere organizzati gerarchicamente in dimensioni (= aspetti psicologici organizzati nn osservabili, ke rappresentano ognuno un aspetto del costrutto e si collocano gerarchicamente tra il costrutto e gli indicatori) à un es è l’intelligenza emotiva: essa è dovuta all’intelligenza intrapersonale (conoscenza e gestione delle proprie emozioni, motivazione di se stessi..) +  l’intelligenza interpersonale (riconoscimento delle emozioni altrui, gestione delle relazioni interpersonali..). Vediamo ora l’analisi fattoriale esplorativa. L’analisi fattoriale è una tecnica ke individua una variabile latente sottostante a più variabili osservate. Nell’analisi fattoriale esplorativa invece, tutte le variabili osservate (x) presentano un legame con tutte le variabili latenti (F) sebbene con “pesi” diversi (F1 à X1, X2, X3..).
Esiste poi l’analisi fattoriale confermativa: essa serve x verificare ke una o più variabile latenti ke vengono ipotizzate come legate con determinate variabili osservate, siano effettivamente legate a quelle variabili (= tale analisi ci dirà quindi quanto il ns modello teorico è adeguato rispetto ai dati osservati)
Un'altra tecnica consiste nell’analisi delle componenti principali: essa è una tecnica statistica ke trasforma linearmente un set di variabili in un set più piccolo di variabili nn correlate fra loro ke rappresentano gran parte dell’info contenuta nel set originario di variabili. In tal modo, grazie alla riduzione della dimensionalità, si aumenta l’interpretabilità. X far ciò si distingue una prima componente principale (= ke è la combinazione lineare delle variabili in esame e ke spiega la maggior parte della varianza TOTALE: essa è dunque la migliore sintesi delle interrelazioni tra variabili), una seconda componente principale (= la combinazione lineare ke spiega la maggior parte della varianza residua, dopo aver tolto quanto spiegato dalla prima componente e ke risulta indipendente dalla 1° componente: essa è quindi la miglior sintesi della variabilità rimasta da spiegare) e così via fino all’ n-esima componente (= la quale esaurisce la variabilità, poiché spiega l’ultima quota di residua varianza).
Passiamo ora alla validità e all’attendibilità. La validità di uno strumento di misura è il grado in cui uno strumento misura ciò ke dice di misurare (à coincide quindi con la validità di costrutto). L’attendibilità di uno strumento di misura è invece il grado di accordo tra misurazioni indipendenti dello stesso costrutto: se una misura dello stesso costrutto varia nel tempo o a seconda di chi la compie, nn sarà attendibile.
Le misure possono quindi essere di diversi tipi:

  • Precisa e accurata: Se misuro davvero ciò ke voglio misurare (= se faccio centro) e se lo ripeto ad ogni rilevazione (= lo strumento è accurato). Se si hanno queste premesse, allora lo strumento è attendibile.
  • Imprecisa e inaccurata: non colgo mai davvero ciò ke voglio (= sono inaccurato xke nn faccio mai centro) e  sono impreciso (= ogni tiro colpisce in punti diversi).
  • Precisa ma inaccurata: sparo sistematicamente (= con precisione) su una zona precisa e colgo quindi un costrutto, ma colpendo il secondo anello, nn è il costrutto ke voglio misurare (= sono quindi inaccurato).
  • Imprecisa ma accurata: se x es bisogna giudicare il livello di interesse reciproco di una coppia m/f  seduta e do ad ogni postura un giudizio (= precisione) sebbene poi interpreti qst in modo sbagliato (= inaccurato).

In generale si possono poi distinguere alcuni aspetti dell’attendibilità: abbiamo la stabilità (= il grado di correlazione tra le misurazioni avvenute in tempi diversi dello stesso costrutto), l’accuratezza (= il grado di corrispondenza tra costrutto misurato e la realtà) e la precisione (= il grado di sistematicità / coerenza con cui si esegue la misurazione, ossia con cui si associano eventi / oggetti a determinate categorie à in particolare, uno strumento di misura è preciso se 2 item diversi, 2 indicatori dello stesso costrutto, danno lo stesso risultato con lo stesso soggetto).
Vediamo ora la teoria classica dell’attendibilità. Ogni misura, riflette in qualche modo il punteggio vero x il concetto d’interesse, ma anke una quota d’errore:
X = V + E à X: misura rilevata; V: parte vera; E: errore dovuto a fluttuazioni casuali (sempre) oppure costante / sistematico (talvolta).
Si definisce così errore casuale quell’insieme di fattori casuali ke confondono la misurazione di qualunque fenomeno. Esso ha media zero (così come correlazione fra punteggio vero ed errore, correlazione fra errore e punteggio vero alla misurazione successiva e correlazione fra errori di misurazioni diverse: tutto zero). Abbiamo poi l’errore nn casuale, il quale è xo un effetto distorcente sistematico.
Diamo ora una definizione di attendibilità: essa è
Varianza Vera / Varianza Osservata  à nota ke x essere attendibile  si dovrebbe avere al massimo una varianza d’errore del 5% e 95% di varianza attendibile.
La varianza è una misura di tendenza centrale, e serve x rappresentare la tendenza media del campione. Essa si ottiene tramite una serie di passaggi: va innanzitutto calcolata la media aritmetica dei valori. Ad ogni singolo valore va poi sottratta la media aritmetica ed elevato poi al quadrato. Essi vanno poi sommati tra di loro e a tutto qst si sottrae il numero totale dei valori In tal modo si ottiene la varianza, la quale è definita come la media dei quadrati degli scostamenti dalla media. Dalla varianza è poi possibile ottenere la deviazione standard, applicando alla varianza la radice quadrata (es valori: 3, 5, 1; n° totale valori: 3 à media: (3+5+1)/3=3 à varianza: [(3-3)2+ (5-3)2+ (1-3)2]/ 3 (à qst 3 nn è la media, ma il n° tot dei valori) à deviazione standard: Övarianza).
L’attendibilità assicura quindi ke le misure usate siano coerenti tra di loro; la validità ci assicura invece ke tali misure riflettano adeguatamente il costrutto ke vogliamo studiare. Nota xo ke l’attendibilità è la base della validità: senza attendibilità nn vi può infatti essere validità.
È poi possibile distinguere diversi tipi di stime di attendibilità:

  • Attendibilità test-retest: x far ciò, il test viene somministrato a distanza di qualche tempo: se il test è attendibile, la misurazione eseguita rimane stabile nel tempo, e i punteggi di un determinato individuo mostrano un alta correlazione fra le diverse somministrazioni dello stesso test, in quanto dovrebbero riflettere la stessa quantità di variabile V (= ossia il punteggio vero). I punteggi dovrebbero quindi essere gli stessi (detratta ovviamente la varianza d’errore), poiché gli errori nn dovrebbero essere correlati. Inoltre, qnd l’intervallo fra le somministrazioni dello stesso test è maggiore di 6 mesi, il coefficiente di attendibilità viene detto coefficiente di stabilità.
    Nota tuttavia ke spesso il test-retest è impossibile o troppo dispendioso e una bassa correlazione da una volta all’altra nn significa necessariamente scarsa attendibilità della misura, poiché potrebbe essere cambiata la variabile ke si è misurata. Oppure ancora potrebbe accadere ke il processo di misurazione possa indurre un cambiamento (effetto della pratica) o ke si abbia una sovrastima dovuta alla memoria. Infine, più giovane è il soggetto, e più ristretti dovranno essere gli intervalli di tempo fra una somministrazione e l’altra.
  • Forme parallele o alternative: vengono somministrate agli individui almeno 2 diverse forme dello stesso test in cui le medie e le varianze dei punteggi ottenuti dagli stessi soggetti sono uguali. Gli item di entrambe le forme vengono poi campionati  dallo stesso gruppo e viene infine calcolata la correlazione fra le 2 distribuzioni di punteggi.
    Sia nel caso test-retest, ke nelle forme parallele, si usa come test statistico la correlazione di Pearson: essa indica il legame ke unisce 2 variabili e graficamente può anke risultare nn lineare (e quindi curvilinea). Il coefficiente di correlazione è un valore ke indica il rapporto tra la variabile X e la variabile Y in termini di “forza” (= se avviene una covariazione o se vi è indifferenza) e di direzione (= se è positiva o negativa). Va tuttavia ricordato ke una correlazione nn implica necessariamente un rapporto causa-effetto (inoltre in alcuni casi difficile stabilire quale la causa e quale l’effetto: es bassa autostima e depressione).
    La correlazione di Pearson (r) è definita come
    somma dei prodotti dei punteggi standardizzati di X e Y / N (ossia il numero di soggetti e osservazioni)
    NOTA: i punteggi standardizzati (o punti z) si ottengono facendo (punteggio del soggetto - media) / deviazione standard
    r può poi assumere valori compresi tra -1 e +1 à se va da 0 a +1 la correlazione tra X e Y è Positiva; se va da 0 a -1 la correlazione tra X e Y è Negativa; se è uguale a 0 nn c’è correlazione.
    La forza della relazione sarà poi visibile dal valore (tra 0 e 1 à più è vicino a 1 e più è forte), mentre la direzione della relazione sarà visibile tramite il segno (+ o -).
    In particolare, se r = ±1 abbiamo una relazione lineare perfetta; se r = 0 abbiamo assenza di relazione lineare; se -1 < r < 0,5 abbiamo una relazione negativa forte-debole; se +0,5 < r < 1 abbiamo una relazione positiva debole -forte.
    Graficamente, infine è possibile distinguere tra
    • Relazione Lineare Positiva: qnd la linea va dallo 0 del grafico e prosegue verso alto-destra à /
      il tipo di relazione (debole o forte) dipende dall’inclinazione della linea
    • Relazione Lineare Negativa: qnd la linea  va da in alto-sinistra verso il basso-destra à \
      anke qui il tipo di relazione dipende dall’inclinazione della linea
    • Assenza di Relazione: qnd i punti sono sparpagliati nel grafico senza senso
    • Assenza di Relazione Lineare: qnd i punti assumono la forma di una campana à Ω
  • Attendibilità Split-Half: essa è ottenuta dalla correlazione fra 2 set di punteggi derivanti da 2 metà equivalenti di un singolo test somministrato una volta sola (cosa ke permette un notevole risparmio di tempo). X far ciò bisogna:
    • Dividere il test in 2 metà equivalenti: si considera un’attendibilità di tipo pari-dispari (= xke l’ordine degli item è irrilevante) un mini-parallel test (= ordine casuale degli item x bilanciare il contenuto e/o la difficoltà) e una considerazione del fatto ke tra la prima e la seconda metà possano esserci errori dovuti a fatica, ansia e ordine
    • Calcolare il coefficiente di correlazione sulle 2 metà del test tramite l’α di Cronbach: un test di consistenza interna è possibile qnd gli items nn sono dicotomici (= qnd le risposte possono essere codificate secondo un range di valori à es scala Likert). Tale test dice in ke misura gli item misurano un singolo fattore / costrutto.
      L’α di Cronbach viene definito come la media di tutte le intercorrelazioni intercorrenti tra tutte le possibili divisioni a metà del test. Essa dipende dall’intercorrelazione tra gli item e dalla loro numerosità. In generale si accetta un valore  di α superiore a 0,70 (ma va valutato ke l’intercorrelazione tra item nn sia frutto di un gonfiamento dovuti a troppi item simili)
    • Aggiustare l’attendibilità mediante la formula di Spearman-Brown: essa ha lo scopo di migliorare l’attendibilità inter-item, di individuare gli item ke peggiorano l’attendibilità ed esaminare tutte le possibili combinazioni di divisione a metà di un test. X far questo si pone 3 assunti: ke gli item siano omogenei, ke tutti gli item sono indicatori adeguati del costrutto e ke ogni parte del test è una sua versione alternativa o equivalente.
  • Attendibilità basata sui Metodi della Consistenza interna di 2 o più giudici: con essa si valuta il grado di accordo nelle valutazioni di più giudici o osservatori e x far qst si usa il K di Cohen. Se i punteggi son stati trasformati in categorie, il K di Cohen riflette l’effettivo accordo come proporzione dell’accordo potenziale rispetto alla correlazione x l’accordo casuale. La formula è
    K = (Frequenza di accordi Osservata - Frequenza di Accordi attesa x caso) / (numero items del test - Frequenza di Accordi attesa x caso)

Vediamo infine i vari tipi di Validità:

  • Validità di uno Strumento di misura: è il grado con cui uno strumento di misurazione  misura effettivamente il costrutto ke intende misurare
  • Validità di Contenuto: il grado di accuratezza con cui le variabili misurano il fenomeno in esame (à il grado con cui gli item di uno strumento costituiscono un campione rappresentativo dell’universo dei comportamenti possibili, relativi al costrutto sotto esame; es x valutare l’intelligenza emotiva devo predisporre gli item in modo ke coprano in modo adeguato le dimensioni inter e intra personale, xke se il test si focalizzasse solo su una di esse, perderebbe una gran parte di costrutto). X controllare la validità di costrutto si ricorre spesso a giudici esperti ke stimano la rappresentatività degli item, in base alla validità di facciata.
  • Validità di Facciata: il grado in cui gli item sembrano rappresentare ragionevolmente il costrutto.
  • Validità di Attendibilità
  • Validità di Criterio: è il grado di corrispondenza tra la misura ed una variabile esterna (diversa dal costrutto originario ma col quale ha un significativo legame teorico) ke si assume come criterio di riferimento. Il criterio può avere
    • Validità Predittiva: qnd è differito nel tempo rispetto al costrutto (es il successo universitario nella facoltà di medicina è predittivo della capacità di diventare poi un buon medico?). X stabilire tale tipo di validità si usa spesso il concetto di regressione, la quale è a sua volta legata al concetto di previsione (es altezza dei figli regredisce spesso verso l’altezza media dei genitori: quindi conoscendo l’altezza dei genitori è possibile prevedere l’andamento delle altezze dei figli).
      X effettuare la previsione (o stima) di Y dato X, si usa l’equazione di regressione, ke nel caso di relazioni lineari, è rappresentata dalla retta di regressione, la quale passa mediamente più vicina a tutti i punti del grafico (il tipo di relazione può essere positiva à / ; negativa à \ ; oppure nulla se i punti sono sparpagliati senza senso).
      L’equazione della Retta di Regressione è:
      Y’ = a + bX
      dove a è detta Intercetta (= la distanza tra l’origine degli assi ed il punto in cui la retta taglia/incontra l’asse delle ordinate: vedi disegno pg 57);
      b è invece il coefficiente di regressione e indica l’inclinazione della retta, cioè l’angolo ke la retta forma con l’asse delle ascisse: esso esprime la quantità di incremento se positivo, o di decremento se negativo ke si verifica in Y x ogni unità di incremento/decremento in X. Nota ke se
      • b > 0 à all’aumentare di X aumenta anke Y (nota ke se ad ogni variazione di X corrisponde un uguale variazione di Y -e la retta è quindi a 45°- si ha una relazione perfetta e b = 1; se invece b > 1, ad ogni variazione di X corrisponde una variazione in Y).
      • 0 < b < 1 à ad ogni variazione di X corrisponde una variazione minore in Y
      • B = 0 à ad ogni variazione di X nn corrisponde alcuna variazione in Y (= assenza di relazione)
      • B < 0 à qnd all’aumentare di X diminuisce Y (se poi ad igni variazione di X corrisponde un’uguale variazione in Y, si ha b = -1  e si ha così una relazione perfetta; se b < -1 invece, ad ogni variazione di X corrisponde una variazione maggiore in Y; se invece  -1 < b < 0, allora si ha ke ad ogni variazione di X corrisponde una variazione minore in Y).

    • Validità Concorrente: qnd il criterio è concomitante col costrutto (es se faccio un test d’iperattività dei bimbi esso discrimina con voti alti/bassi?). X stabilire tale tipo di validità si usa spesso la correlazione
  • Validità di Costrutto: è il grado in cui lo strumento misura ciò ke intende misurare. Si può avere
    • Validità Convergente: qnd 2 strumenti diversi ke misurano lo stesso costrutto raggiungono un grado di accordo
    • Validità Divergente: qnd 2 strumenti diversi misurano costrutti diversi e sono in disaccordo tra loro
  • Nomologica: è il grado di correlazione tra la misura e gli altri costrutti ke fanno parte della stessa teoria o ke sono collegati entro una rete teorica molto più ampia (es l’atteggiamento nei confronti degli acquisti online ha validità nomologica se correlato con altri costrutti collegati all’acquisto sul web).

I TEST PSICOLOGICI
Un test psicologico è una tecnica ke tramite una serie di norme ha dei criteri di applicabilità, e serve a collocare un individuo o una sua caratteristica psicologica particolare, all’interno di un gruppo di riferimento identificato secondo precise modalità. I test psicologici possono essere suddivisi in cognitivi (intelligenza, profitto, attitudine..) e nn cognitivi (come personalità e atteggiamento)
Il test pone il soggetto in una situazione standardizzata, presentendogli stimoli (domande/problemi) ke fanno emergere risposte (comportamenti), ritenute salienti x il costrutto in esame e à questi saranno poi i dati su cui si condurrà la ricerca.
La standardizzazione può riguardare il contesto (sempre lo stesso), gli stimoli/domanda (sempre gli stessi) e la codifica (sempre la stessa). Le risposte dei soggetti sono poi un campione rappresentativo di tutte le possibili risposte a quei tipi di stimoli.
Vediamo ora l’intelligenza. Tale termine varia da cultura a cultura e indica abilità diverse: prudenza nelle relazioni sociali in Zimbabwe, obbedienza alle norme sociali in Niger, oppure ancora perspicacia, velocità nelle decisioni e buona memoria in Giappone. È inoltre un luogo comune pensare ke l’intelligenza sia quella corrispondente ai classici test sul QI: tuttavia, sebbene alcuni aspetti intellettivi possano essere realmente misurabili, è impossibile misurare tutta l’intelligenza in ogni sua sfumatura.
Vediamo ora la storia dell’Intelligenza:

  • Pensiero occidentale: la riflessione sull’intelligenza si sviluppò tra 2 dicotomie: intelligenza unica / intelligenza molteplice; intelligenza innata e immutabile / intelligenza legata all’ambiente e coltivabile (àentrambi gli approcci avevano vantaggi e svantaggi sulla definizione dell’intelligenza).
  • Gall (700): con la frenologia mise in relazione la forma del cranio e le caratteristiche mentali (= più era grande la testa in un certo punto -e quindi più era grossa l’area cerebrale sottostante- più si pensava si fosse dotati nell’ambito ad essa corrispondente). Malgrado tale tesi fosse totalmente errata, si ebbero 2 sviluppi importanti da essa: la localizzazione funzionale (ossia a determinate aree cerebrali corrispondono specifiche funzioni cognitive) e il fatto ke le attività mentali potessero essere coniugate diversamente a seconda delle varie facoltà.
  • Galton (1884): ordinò gerarchicamente la popolazione in base alle prestazioni intellettive, supponendo ke più l’individuo fosse colto ed intelligente, e più sarà in grado di fare discriminazioni fini tra gli stimoli (es 2 pesi)
  • Binet (1905): misurò l’età mentale dei bimbi mediante un confronto tra età mentale ed età cronologica
    (Età mentale / Età cronologica) * 100 = QI
    Spearman vide invece l’intelligenza come un fattore unico (chiamato fattore g)
  • Thurstone (1938): era in una posizione opposta  a quella di Spearman e suddivise pertanto l’intelligenza in 7 fattori (comprensione verbale, facilità di calcolo, visualizzazione spaziale, memoria associativa, rapidità di percezione e ragionamento.
  • Cattel (1971): distinzione tra intelligenza cristallizzata (dovuto alla cultura ke determina certe capacità di ragionamento e di comprensione) e intelligenza fluida (abilità nn trasmesse culturalmente xke indipendenti dall’esperienza)
  • Vernon (1971): distingue tra un’intelligenza verbale-scolastica (linguaggio e calcolo matematico) e intelligenza pratico-operativa (abilità spaziali e manuali)
  • Piaget: bimbo cerca di capire il mondo come uno scienziato, tramite costruzione e verifica di ipotesi da sviluppate dal suo sistema cognitivo. Ritiene ke l’intelligenza si sviluppi in più stadi: senso motorio (à 0-18 mesi: conoscenza mediata da riflessi e schemi motori semplici ke regolano così l’interazione con l’ambiente) preconcettuale o intuitivo (à 18 mesi-7 anni: acquisizione del linguaggio in fase prelogica, dei concetti e della semantica delle parole) operatorio concreto (à 8-11 anni: padronanza di simboli e concetti, capace di operazioni su casi concreti) e operatorio astratto (à 11 anni in poi: capace di operazioni anke su casi astratti; in grado di operare pensieri ipotetico deduttivi). Tuttavia la teoria piagetiana ha 2 punti deboli: impossibilità di applicare le sue nozioni ad altre culture (bimbo come piccolo scienziato valido solo x l’occidente) e impossibile una rigida associazione tra età e stadi di pensiero.
  • Infine, le ultime posizioni vedono come dominanti i fondamenti biologici dell’intelligenza: sebbene vi sia plasticità e flessibilità nei primi mesi, tutto ciò è fortemente modulato da costrizioni genetiche ke guidano lo sviluppo lungo certe direttrici.
    X Gardner in particolare, l’intelligenza umana deve comportare un insieme di abilità ke portino ad una soluzione dei problemi, consentendo all’individuo di risolvere questi creando un prodotto, una risposta efficace. Inoltre, deve aver la capacità di creare o trovare problemi.

Vediamo ora la misura dell’intelligenza: il punteggio ottenuto dai soggetti in un test d’intelligenza permette la collocazione di esso lungo una scala in base alle capacità dimostrate. Il punteggio sarà determinato da un potenziale innato (= definito dalla predisposizione genetica), dalle capacità sviluppate nell’interazione con l’ambiente (esperienze ke il soggetto ha avuto) e dalla motivazione del soggetto a progredire ed evolversi.
I test cognitivi possono essere classificati in base a vari aspetti:

  • Modo di Somministrazione: esso può essere
    • Individuale: se gli stimoli vengono presentati a 1 solo soggetto dallo sperimentatore (interazione diadica)
    • Collettivi: qnd gli stimoli son presentati a più soggetti contemporaneamente
    • Automatizzati: qnd gli stimoli vengono presentati su uno schermo di un computer
  • Operazioni Psicologiche:  si adottano categorie diverse in funzione delle diverse teorie (possono così modificarsi sia gli item ke le modalità di risposta)
  • Materiale e Contenuti: può essere
    • Simbolico: simboli numerici, alfabetici, grafici..
    • Grafico-Spaziale: disegni geometrici o caratteristiche di oggetti comuni collocati nello spazio
    • Semantico Verbale: info ed esperienze varie della cita, compresi i significati delle parole
  • Reazione del Soggetto: può essere espressa mediante
    • Carta e matita: stimoli e risposte messe su un foglio
    • Produzione Orale: il soggetto deve rispondere oralmente allo stimolo
    • Esecuzione manuale: riprodurre determinati compiti
  • Caratteristiche dei soggetti:
    • Fasce di età specifiche: bimbi, adolescenti, adulti..
    • Maggior parte della popolazione: adolescenti/adulti normali
    • Popolazione con caratteristica specifica: es certi ritardi o patologie specifiche
  • Modalità di espressione dei risultati: avvengono mediante dei test
    • Test con giudizio su un’unica scala: es livello mentale generale o una singola abilità specifica
    • Test con profilo: espressione di più abilità o attitudini

Sulle prove di intelligenza si possono fare molti esempi: esistono quelli di deduzione e calcolo matematico (es 2 righe: i n° nella riga sopra vanno addizionati, quelli nella riga sotto sottratti), visualizzazione spaziale (= ruotare figure), analogie verbali o visive (a:b=c:d con le parole o con le figure), e infine quelli di ragionamento verbale, aritmetico, astratto visivo. I test possono poi essere fatti o su misura x i piccoli o x gli adulti (à in qst’ultimo caso sono molte le cose osservabili: cultura generale, comprensione generale, ragionamento aritmetico, analogie, memorie di cifre e definizioni di vocaboli, associazione di simboli a numeri, completamento di figure, riordinamento/ricostruzione delle figure).
Tuttavia, nei test tradizionali, son presenti dei limiti: spesso si ha una scarsa correlazione tra punteggi nei test e successo professionale. Inoltre va tenuto presente ke i test sono predittivi solo se condotti in situazioni particolari (ma solitamente le prove sono decontestualizzate e lontane dal quotidiano) e ke in essi va tenuto in considerazione un totale relativismo culturale. Si può dunque abusare dei risultati dei test: innanzitutto xke ci si affida ai numeri pensando ke questi diano sicurezza; in secondo luogo, vi è un timore di chi valuta nell’esporsi a giudizi di tipo qualitativo (es abuso della somiglianza: la classe dirigente, seleziona in base a test quantitativi persone con qualità simili alle proprie. Qst porta poi ad una fissazione della credenza, xke si ritiene ke chi ha punteggi bassi nei test nn possa fare certi lavori: nn esistono infatti dirigenti con bassi QI. Qst è tuttavia frutto della credenza stessa, e nn si potrà mai avere prova del contrario).
TEST NN COGNITIVI
Cominciamo dai test di personalità (e più precisamente gli inventari e questionari).
Esistono diversi tipi di questionari ed inventari, distinguibili a seconda del criterio adottato; essi possono essere divisi in almeno 3 approcci:

  • IDIOGRAFICO: risalta l’unicità della persona, ke è descrivibile solo in relazione a se stessa e nn è quindi comparabile con altre (e tanto meno classificabile)
  • NOMOTETICO: i tratti di personalità son comuni a tutti e le differenze riguardano solo le varie intensità delle caratteristiche (ritiene quindi i tratti di personalità come facilmente classificabili).
  • IDIOTETICO: le caratteristiche di personalità si possono descrivere come ciò ke un individuo tende / nn tende a fare (è quindi una via di mezzo tra unicità e classificabilità).

Altro criterio x classificare i questionari e inventari son le variabili studiate: tratti sociali (es interazioni con gli altri: timidezza, socievolezza..) motivazioni, bisogni e tendenze (aspetti più profondi della personalità, ke si applicano a specifici contesti) concezioni personali (il modo di porsi rispetto alla realtà, ossia come mi pongo davanti agli eventi) psicopatologie (gli aspetti legati al disagio psichico e alla malattia) e dinamiche della personalità (Es, Io, Super-Io).
Vediamo ora i test di personalità proiettivi: con essi gli individui dicono le cose in base a proiezioni (es cosa vedi nella nuvola? à in base alla proiezione si può dedurre la personalità sottostante). Essi possono dividersi in:

  • Test Strutturali: in cui il soggetto deve fornire un’interpretazione a stimoli destrutturati (= ossia stimoli ke nn hanno un contenuto preciso e ke quindi innescano uno specifico processo di percezione). Un es è il test di Rorschach (interpretazione di macchie ke il clinico poi decodificherà).
  • Test Narrativi o di Contenuto: in essi invece il soggetto deve raccontare delle storie inerenti allo stimolo (esso rappresenta situazioni più o meno strutturate).Esistono vari tipi di test di questo tipo: x es, il test di appercezione tematica x adulti consiste nella presentazione di una serie di immagini (20) in cui si domanda alla persona ke cosa è successo prima e dopo la situazione disegnata x capire così il modo di pensare del soggetto.
    X i bimbi è stato invece creato il CAT (= un test di appercezione tematica fatto su misura x loro) in cui si richiede ai bimbi l’interpretazione di 10 scene (in esse nn compaiono figure umane ma solo animali, x poter così evitare blocchi mentali) da cui poi verrà dedotta personalità ed origine dei problemi. Altre varianti di test proiettivi, sempre x i bambini, sono i Bleaky pictures (= da usare in età evolutiva: si rappresentano delle vignette ke rappresentano le avventure del cane Bleaky à qui le situazioni sono più strutturate rispetto alle altre), le favole della Duss (piccole favole ke rimandano a diversi stadi dello sviluppo psicosessuale à metodo d’indagine più rapido rispetto all’interrogatorio analitico) e il test Patte-Noire (= le situazioni stimolo riguardano degli animali e permettono così una miglior proiezione da parte del piccolo; il bimbo è libero di dare un’età e un sesso agli animali e deve innanzitutto descrivere le avventure degli animali, dividendo quelli ke gli piacciono da quelli ke nn gli piacciono e infine indicando di quale personaggio desidererebbe assumere il ruolo).
  • Tecniche Verbali: usano come stimolo e come risposta soltanto una parola singola: fra esse troviamo il test delle libere associazioni e la tecnica del completamento di frasi (es è proprio bello essere..)
  • Tecniche basate sulle immagini: viene chiesto al soggetto di scrivere delle frasi in merito a situazioni rappresentate sotto forma di vignette.
  • Tecniche espressive o grafiche: prevedono l’utilizzo del disegno e, in base a come esso viene realizzato, si traggono conclusioni (avvalendosi oltretutto del concetto di archetipi di Jung, ossia di concetti universali e ricorrenti nelle culture); nota ke fanno parte di questa categoria anke i test del disegno della figura umana e il reattivo dell’albero di Koch (= si dice al soggetto di disegnare un albero e poi si valuta l’opera: quella dell’analisi delle singole caratteristiche e, in seguito, la visione globale à grazie ad esse si potrà poi dare un’interpretazione conclusiva)
  • Tecniche Creative: si chiede di costruire una certa scena, mediante la manipolazione di specifici materiali ke agevolano il gioco dei ruoli: un es è lo sceno-test, il quale consiste in una scatola colma di giocattoli attraenti à grazie alla disinibizione prodotta dal gioco, il clinico poteva poi accedere in modo diretto alla lettura dell’inconscio, deducendo così la personalità del soggetto .

LE SCALE
SCALE DI ATTEGGIAMENTO
Le tecniche delle scale (o Scaling) sono un insieme di procedure  ke servono a misurare l’atteggiamento dei soggetti nei confronti di particolari temi (religione, politica..), grazie ad un insieme di indicatori (items della scala) ke son collegati al concetto generale indagato.
Un atteggiamento è la predisposizione a rispondere ad una certa classe di stimoli con una certa classe di risposte. Questo è poi empiricamente rilevabile tramite le opinioni ke sono l’espressione verbale dell’atteggiamento. Le risposte hanno 3 componenti:

  1. Affettiva: sentimenti positivi/negativi
  2. Cognitiva: opinioni/credenze
  3. Conativa: azioni e intenzioni (ossia i comportamenti)


Nelle domande con risposta chiusa possiamo poi avere 3 tipi di modalità di risposta:

  1. Alternative di risposta semanticamente autonome: ciascuna risposta ha un suo significato, ke x essere compreso nn necessita di essere messo in relazione con le altre alternative (poiché se ne seleziona solo una e nn dipende dalle altre). Es nell’ultimo anno quante volte ha assunto droghe? à Mai; 3 volte l’anno; 1 volta al mese; 3 volte al mese; più volte la settimana.
  2. Alternative di risposta a parziale autonomia semantica: ciascuna risposta segue un gradiente d’intensità e, x tale motivo dipende anke dalle altre alternative (nonché da quante ne sono proposte). Es lei è credente? Per nulla; abbastanza; molto (à nota ke qua ho 3 alternative e se scelgo abbastanza è xke sono a metà; se tuttavia ci fossero 4 alternative tra cui scegliere, es x nulla, poco, abbastanza, molto, dovrò decidere tra poco e abbastanza e quindi la scelta cambia in base alle alternative proposte e al loro numero. Infatti, nn è chiara l’espressione abbastanza, ma essa assume di significato in base alla sua collocazione lungo il continuum). Infine, va notato ke l’utilizzo di un linguaggio adeguato e pertinente è molto importante in questi tipi di test.
  3. Scale Auto-Ancoranti: sono riportate solo le 2 posizioni estreme e il soggetto deve posizionarsi lungo un continuum rappresentato da una linea divisa in segmenti, da una serie di numeri, o ancora da una linea continua nn divisa in segmenti (il fatto ke qst’ultima nn sia suddivisa, implica ke le misure le creo io).
    Es qual è la tua posizione politica? Destra ----------- Sinistra    - Nn so
    Es sei favorevole alla liberalizzazione delle droghe? Si  1  2  3  4  5  6  7  8  9 No         99 Nn so
    Es sei soddisfatto dell’università?  Si  ____________  No     _ Nn so
    Nota ke in merito alle scale auto ancoranti esistono 2 tipi di questioni: se mettere il punto centrale o il “nn saprei” oppure no (à discussione xke andrebbe messo in quanto esistono posizioni intermedie, ma andrebbe evitato xke ci sono persone ke nn sono decise o vogliono evitare schieramenti). In ogni caso, la soluzione più adottata è ke è meglio mettere l’opzione centrale e soprattutto il nn saprei (à nota ke è stata trovata una relazione diretta tra chi sceglie nn saprei e il livello della sua istruzione; chi invece ha bassa scolarità, tende a rispondere anke in base alla desiderabilità sociale).
    Infine, se la scala è fatta da poche domande, conviene offrire molte alternative di risposta (ma attenzione xke troppe affaticano il soggetto; va inoltre notato ke è probabile ke il soggetto si soffermi sulle prime alternative x via della sommazione di 3 effetti: stanchezza della prova, effetto primacy x cui si ricordano meglio i primi item di una lista, e opinione ke egli ha del numero di categorie della prova -se è parsimonioso, tenderà a soffermarsi sulle prime della lista-); invece, se la scala ha molte domande, è meglio offrire meno alternative.
    Nelle interviste telefoniche è poi conveniente utilizzare la scelta binaria si/no, e tenere conto dell’effetto recency ke prevale in esse (ossia il ricordo delle opzioni più recenti).

Vediamo ora l’effetto dell’estensione delle scale di frequenza. L’ampiezza della scala può influire sui giudizi dei rispondenti ke valutano l’alternativa centrale come quella media (come quella “normale”) e la scelgono solo x tale motivo. Es quante volte ti è capitata quella cosa(insorgenza di un sintomo)? Mai; 1 volta l’anno; 2 volte l’anno; 2 volte al mese; più volte al mese (2 volte al mese scelto dal 62% xke centrale); stessa domanda altro gruppo ma cui è accaduta la stessa cosa: 2 volte al mese, 1 volta la settimana, 2 volte la settimana, quotidianamente (solo il 39% risponde 2 volte al mese: qst xke essendo in cima alla scala risulta come alternativa eccessiva).
Le scale di frequenza possono inoltre avere quantificatori indeterminati: essi nn riportano alcun valore assoluto (x es 2 volte al mese) ma si basano su termini generici quale accordo (d’accordo, tendenzialmente d’accordo, tendenzialmente in disaccordo, disaccordo) importanza (molto importante, abbastanza importante poco importante) e probabilità (probabile, abbastanza probabile, improbabile) à nota xo ke con i quantificatori nn è detto ke tutti li giudichino allo stesso modo: è quindi utile porre prima una domanda aperta in cui il soggetto riporterà dei valori assoluti e, solo in seguito, porre le questioni coi quantificatori indeterminati, in modo così ke si eviti il fraintendimento.
Guardiamo ora le tecniche delle scale (scaling). Esistono scaling di tipo unidimensionale (qnd si valuta solo un punteggio) e scaling di tipo multidimensionale (qnd la valutazione è sulla base di più punteggi teoricamente collegati).
Tra le Scaling Unidimensionali abbiamo:

  • Scala di Thurnstone: essa prevede la formulazione di molte (es 100) affermazioni relative ad un atteggiamento; dopodiché si fa valutare da un numero equivalente di giudici (in tal caso 100) quanto una frase esprima atteggiamenti positivi o negativi nei confronti del tema indagato (in base ad una scala a 11 passi) e si selezionano infine gli item ke rappresentano in media ogni passo della scala e x i quali ce maggior accordo nei punteggi dei giudici.
  • Scala di Likert: è la scala più usata in psicologia; la forma classica prevede di indicare il grado di accordo ad una certa affermazione su una scala a 5 o 7 passi (es la caccia è uno sport: molto d’accordo, d’accordo, parzialmente d’accordo, incerto, parzialmente contrario, contrario, fortemente contrario). Nota ke vanno stilate una serie di affermazioni ke coprano gli aspetti del costrutto; esse devono inoltre essere formulate in modo ke i soggetti possano manifestare accordo-disaccordo. Una volta creata la scala, la si sottoporrà poi ad un numero elevato di giudici, i quali selezioneranno solo gli item più rappresentativi (in alternativa ai giudici si può sottoporre la scala ad un numero di soggetti pari a 4-5 volte il numero degli item della scala). Infine, bisogna verificare l’unidimensionalità della scala, mediante:
    • La correlazione elemento-scala: x ogni soggetto si calcola il punteggio totale e lo si correla col punteggio di ogni singolo item à in tal modo, si nota se l’item correla con la scala in generale (ma se il punteggio è alto e molti soggetti danno punteggi bassi ad un certo item, significa ke quella domanda è ambigua, nn chiara oppure inadatta). Se il punteggio è -1 la correlazione sarà inversa; se è pari a 0 sarà assente; se è invece pari a -1 la correlazione sarà invece diretta.
    • Il grado di coefficienza interna della scala (coefficiente alfa): è un test di coefficienza interna e controlla ke gli items nn siano dicotomici  (= ossia le risposte possono essere codificate secondo un range di valori); esso dice in ke misura gli item misurano un singolo fattore/costrutto e fa uso all’α di Cronbach (= definita come la media di tutte le intercorrelazioni intercorrenti tra tutte le possibili divisioni a metà del test. In genere si accette un valore di α superiore a 0.70 , ma occorre valutare ke l’intercorrelazione tra gli item nn sia frutto di un gonfiamento, dovuto a troppi item simili). Esso dipende inoltre dall’intercorrelazione tra gli item e dalla loro numerosità

Infine, si fa un ulteriore controllo dell’unidimensionalità della scala, mediante l’analisi fattoriale (à tecnica utilizzata x ridurre il numero delle variabili correlate ad un numero inferiore. Essa è una tecnica statistica ke trasforma linearmente un set di variabili in un set più piccolo di variabili nn correlate fra loro, ma ke rappresenta gran parte dell’informazione contenuta nel set originario di variabili)

  • Scala di Guttman (o scalogramma): gli item sono qui concepiti e ordinati secondo un crescendo x cui l’accordo alla posizione x implica in realtà l’accordo alla posizione x-1.
    Innanzitutto si formulano una serie di item ke esprimono opinioni su un certo tema (nota ke occorre formulare item ke coprano l’intero continuum di possibilità tra i 2 estremi positivo/negativo). Dopodiché si fa valutare ad un gruppo di giudici se gli item esprimono un giudizio favorevole o contrario al tema indagato (si=11; no=0). Si ordinano poi i giudici in base all’accordo sugli item e si selezionano quindi gli item ke rispondono al criterio di cumulatività. Infine, vanno presentati gli item randomizzati, ma sapendone il valore scalare.

Vediamo ora lo scaling multidimensionale:

  • Differenziale semantico: ha l’obiettivo di definire il più precisamente possibile il significato di un concetto x gli individui grazie alla sua valutazione in merito ad aggettivi antitetici (àgeneralmente son 50 coppie polari, come x es buono-cattivo). Nn importa se gli aggettivi sembrano inappropriati o incongruenti x l’oggetto studiato (es caldo-freddo x la politica). Essa è una tecnica di rilevazione dei significati ke nn si basa sulla descrizione diretta e soggettiva dell’intervistato, ma ke è centrata sulle associazioni ke l’intervistato instaura tra qst concetto ed altri concetti proposti in maniera standardizzata a tutti gli intervistati. Inoltre, x aumentare la sensibilità dello strumento, si può chiedere di classificare l’intensità di ogni giudizio su una scala di 7 punti. Il differenziale semantico risulta così essere una combinazione di associazioni controllate e di procedure scaling (x es in merito alla caccia dire se è pulita 1 2 3 4 5 6 7 sporca).
    Nota ke il modo più importante x utilizzare la tecnica del differenziale semantico è rappresentato dall’esplorazione delle dimensioni dei significati: se chiediamo ad un soggetto di collocare un concetto in una coppia di 30 aggettivi, i singoli giudizi saranno influenzati ovviamente dalla visione d’insieme (= il significato ke l’intervistato attribuisce all’oggetto proposto). Il presupposto iniziale consiste infatti nel fatto ke egli nn abbia una visione unidimensionale del concetto, ma ke attribuisca ad esso diversi aspetti ke contribuiscono a formare il significato complessivo di quell’oggetto. Attraverso l’analisi fattoriale si potrà poi determinare quali sono le dimensioni fondamentali ke stanno dietro ai giudizi di un certo campione di persone).
    In generale si possono individuare 3 dimensioni fondamentali ke sottostanno ai vari giudizi:
    • La Valutazione: correlata alle coppie come buono-cattivo, positivo-negativo, bello-brutto
    • La potenza: correlata a coppie come duro-soffice, forte-debole, pesante leggero
    • L’attività: correlata a coppie come attivo-passivo, veloce-lento, caldo-freddo

Essi sono disposti in ordine d’importanza e, in particolare il primo (la valutazione, ke è la più importante) rappresenta il tipo di atteggiamento (favorevole/sfavorevole) ke si ha verso un certo concetto (o oggetto cognitivo).
Un caso particolare di test nn cognitivo, è rappresentato dal test sociometrico di Moreno; esso è volto alla rilevazione delle relazioni interpersonali presenti all’interno di un gruppo di persone (e la sua applicazione ideale è pertanto all’interno di un gruppo di lavoro o di una classe). Con tale tipo di test è possibile  portare alla luce una mappa delle interrelazioni fra gli individui, rilevando così l’esistenza di dinamiche ke potrebbero sennò rimanere ignote.
Esso si presenta spesso sotto forma di questionario e diviso così in una serie di domande del tipo: chi vorresti dei tuoi compagni in classe con te l’anno prossimo? (scegline quanti ne vuoi e mettili in ordine di preferenza); chi NON vorresti con te l’anno prossimo? (anke qui disposizione in ordine di preferenza); indovina tra i tuoi compagni chi ti ha scelto x l’anno prossimo; indica chi nn ti ha scelto x l’anno prossimo.
Il sociogramma verrà poi sviluppato graficamente (il nome della persona va all’interno di un cerchio e le freccie indicano le scelte positive e negative), consentendo così di vedere le persone leader, quelli isolati e quelli fra cui c’è forte/debole coesione e, soprattutto i mediatori (spesso chiamati “short cut” sono quelli scelti da più persone à spesso tale ruolo coincide col leader).
INTERVISTA E QUESTIONARIO
IL QUESTIONARIO
Il questionario è uno strumento di raccolta dei dati x mezzo di domande relative ad informazioni oggettive (età, sesso..) e opinioni, atteggiamenti e giudizi inerenti un certo tema. Sebbene paia uno strumento immediato ed efficace, va considerato ke nel porre una domanda ad una persona lontana nel tempo e nello spazio si corrono dei rischi (la persona deve capire la domanda, saper ricordare gli eventi pertinenti ad essa, saper rievocare le informazioni in modo corretto evitando falsi ricordi o “aggiustamenti” ke comportino il mentire, e saper infine formulare una risposta adeguata a quanto davvero pensiamo nonché utile alla ns analisi).
I passi necessari alla creazione di un questionario sono:

  • Definire il tema della ricerca ke si vuole effettuare
  • Raccogliere testimonianze nella letteratura sul tema prescelto
  • Decidere il formato del questionario (numero di domande presenti, e se esse saranno aperte o chiuse)
  • Individuare il target
  • Individuare le modalità di campionamento
  • Definire la modalità di somministrazione
  • Definire le modalità di raccolta dati

I questionari potranno poi essere classificati in 3 tipi:

  1. Questionari di prestazione tipica: se svolgono ricerche inerenti agli atteggiamenti, ai valori ed alle opinioni
  2. Questionari di prestazione massima: utile se si vuole valutare l’attitudine, l’abilità o il profitto
  3. Questionari autobiografici: se si propongono di osservare comportamenti, abitudini o avvenimenti personali

È poi possibile classificare anke le domande dei questionari, a seconda della tipologia in cui rientrano:

  1. Domande sostanziali: hanno lo scopo di raccogliere informazioni su un certo tema e le risposte saranno poi i dati cui mira la ricerca (es ke partito ha votato alle ultime elezioni?)
  2. Domande con scopi interattivi ed asserzioni introduttive: esse hanno lo scopo di mettere a suo agio l’intervistato e fargli così capire quello ke ci interessa sulle domande. Esse sono aperte e vanno poste all’inizio dell’intervista o prima di domande sostanziali (es ora le leggerò dei giudizi espressi in merito all’operato dell’attuale governo e lei mi dovrà dire se è d’accordo o contrario).
  3. Domande filtro: hanno lo scopo di discriminare i soggetti in merito alle caratteristiche salienti x la ricerca in forma generalmente dicotomica (si/no) permettendo così di passare ad ulteriori domande o saltarne alcune (à in tal modo si evitano appesantimenti o domande inutili). Es lei ha figli? Se si quanti anni hanno, se no passiamo alla prossima domanda.
    Esse possono infine permettere di discriminare tra persone ke hanno un’opinione o meno su un argomento (sia x i fini della ricerca, sia xke in tal modo permettono di evitare l’imbarazzo del nn so qnd viene posta una domanda). Es sa cos’è l’AIDS? se si me lo vuole spiegare?
  4. Domande Buffer: son domande nn direttamente pertinenti con la ricerca e hanno lo scopo di distrarre il soggetto dai reali obiettivi dell’intervista, impegnandolo su temi ke gli facciano dimenticare le domande cui ha risposto in precedenza (è essenziale ke xo esse nn interferiscano con le domande sostanziali).
  5. Domande di Controllo: son domande ke, parafrasando alcune domande target (poste nn in prossimità tra di loro) verificano se il rispondente ha davvero compreso la domanda e l’accuratezza con cui fornisce le risposte (es l’uso di droghe leggere dovrebbe essere consentito seppur tramite regole/son favorevole all’uso di droghe leggere in dosi moderate e definite x legge)
  6. Domande a risposta multipla: son domande ke prevedono più risposte possibili e spesso il soggetto può sceglierne anke più di una, xke le alternative nn si escludono (es indica quali sport pratichi almeno 1 volta al mese: calcio, basket, nuoto). Inoltre, nelle domande a scelta multipla, i soggetti devono anke dare un ordine di importanza alle loro risposte (= ranking). Es metta in ordine le cose più importanti nella sua vita: studio, amore, amicizia, salute. Il ranking presenta tuttavia dei limiti: innanzitutto una difficoltà cognitiva imposta al rispondente nel confronto multiplo; inoltre, x via del fatto ke le alternative nn sono indipendenti, la somma dei ranghi sarà sempre la stessa (nn si potranno così usare statistiche basate sull’indipendenza delle alternative).
    Se tuttavia si vogliono rendere indipendenti le alternative di risposta, e usare le statistiche più potenti, si possono usare le scale di giudizio (ogni alternativa riceve così un giudizio su una scala graduata, x es poco, abbastanza, molto à sempre nell’es di prima; metti in ordine di importanza nella tua vita le seguenti cose: amore molto importante/ studio molto importante/ amicizia abbastanza importante ecc). I limiti tuttavia imposti dalle scale di giudizio è ke si possono avere alternative con lo stesso giudizio.
  7. Domande a scelta forzata: i soggetti devono scegliere una sola risposta tra quelle presentate; possono essere dicotomiche (si/no), tricotomiche (poco/abbastanza/molto) o a più passi (con altrettante opzioni). In tal caso, è xo assolutamente necessario ke le alternative siano mutuamente escludentisi.

Vediamo ora le categorie di risposta; ne esistono di 2 grandi tipi:

  • Frasi complete: frasi inerenti all’oggetto di studio (es credo ke il mondo sia fatto x i furbi)
  • Singole parole: esse comprendono parole (molto, poco..), etichette numeriche (1-2 volte, 3-4 volte), espressioni linguistiche maggiormente articolate (es vita migliore, lavoro migliore, politica nn corrotta), parole o espressioni linguistiche associate ai numeri (es amo il mio lavoro 0-1-2-3-4-5-6-7) oppure simboli visivi o grafici associati ad etichette verbali o numeriche (es x il giudizio delle emozioni viene richiesto di scegliere quale espressione facciale rispecchia di più il tuo stato d’animo; oppure usati coi bimbi dei pallini x semplificare loro la cosa).

Va poi sottolineata la poca affidabilità delle domande generali (x es lei è soddisfatto della sua vita? Rispetto domande più specifiche come lei è soddisfatto del suo matrimonio?e del suo lavoro?) , xke impongono un carico cognitivo maggiore nella risposta, possono risentire di fattori contestuali (es luogo di somministrazione, presenza di altri) e nn sono oltretutto mai troppo informative, poiché nn consentono di rilevare i motivi della risposta del soggetto (x es lei è felice del suo matrimonio? Si à ma cosa sta alla base di questa risposta?)
Inoltre, andrebbero adottate domande nn intrusive, salienti e riferite al presente. Vanno quindi evitate domande intrusive/imbarazzanti (es lei si ubriaca spesso? à nota ke domande come queste possono essere attenuate se parafrasate: es le è mai capitato di bere più di quanto avesse intenzione di fare?). Bisogna fare infine domande riferite al presente (o all’immediato passato o futuro) àse le domande vengono riferite al futuro vengono dette ipotetiche e nn hanno grande validità (nn son info utili xke il soggetto potrebbe nn rispondere con sincerità o completezza).
DESIDERABILITA’ SOCIALE E ACQUIESCENZA
Parliamo ora della desiderabilità sociale e dell’acquiescenza. L’intervista o il questionario possono essere visti come un’occasione x dare una buona immagine di Sé: quindi, qnd ci si presenta agli altri, si possono adottare vari stili (x es apparire simpatici, gradevoli e brillanti x conquistare il favore dell’altro -xke il ricercatore ha il potere dell’autorità- ostentando magari abilità personali ke permettano di guadagnare così la stima dell’altro) à tutti questi aspetti fanno parte della desiderabilità sociale, ke può così influenzare le risposte: se viene infatti posta una domanda imbarazzante/intrusiva, nn si risponde riportando la realtà, ma riportando quello ke dovrebbe fare un certo modello sociale (la risposta dipende quindi dai modelli sociali). X ridurre gli effetti della desiderabilità sociale si possono seguire accorgimenti quale l’inserzione prima del questionario (oppure al suo interno) di item ke misurano la desiderabilità sociale, eliminare dalle domande il più possibile le fonti di desiderabilità, limitare il più possibile domande intrusive e garantire la privacy. Tuttavia, i limiti di tali accorgimenti sono 2:

  • si può fare solo x questionari con risposte nn dicotomiche
  • occorre identificare un livello di desiderabilità sociale oltre il quale scartare i soggetti o ridurre le loro risposte (à ma ciò comporterebbe una violazione del campionamento casuale, xke se si eliminano i soggetti l’estrazione nn risulta più essere casuale)

L’acquiescenza è invece un fenomeno ke sorge qnd colui ke risponde, tenta di dare risposte ke ritiene conformi alle opinioni dell’intervistatore (à ke è visto quale persona autorevole); quindi, x fronteggiare questo caso, si possono inserire domande trappola (= domande contraddittorie rispetto al tema, ma apparentemente simili), domande di controllo (= domande simili ma nn parafrasate) e domande impossibili (= domande senza risposta corretta à se ad esse si risponde cmq, è probabile una tendenza all’acquiescenza; tuttavia, rimane il problema metodologico di eliminare dal campione i soggetti ke han dato risposte contraddittorie o di qst tipo).
Infine, siccome il modo in cui sono formulate sia le domande sia le alternative del questionario è rilevante, il ricercatore deve sapere se la domanda è funzionale agli scopi di ricerca, se essa ha uno stesso significato x tutti i soggetti e se il significato ke gli attribuisce il ricercatore è lo stesso percepito dai diversi soggetti. Quindi, più in generale, il testo dev’essere chiaro e il soggetto deve capire cosa si vuole da lui.
CHIAREZZA DEL TESTO e DOMANDE APERTE/CHIUSE
X avere questa vanno assolutamente evitati certi tipi di domande:

  • Domande Ambigue: i termini nn devono essere generici e nn devono contenere sfumature di significato (es lei litiga spesso con la partner? Dipende da cosa si intende: se uno scambio verbale o fisico o il lancio di oggetti.. à anke termini come felice, soddisfatto, arrabbiato, esperienza sessuale ecc  son vaghi)
  • Domande Doppie: la domanda ha 2 temi su cui il soggetto può anke avere opinioni diverse (es negli ultimi 3 mesi lei è andato al cinema o al teatro? à ma se è andato in entrambi ha opinione diversa)
  • Domande poco comprensibili a livello linguistico: vanno evitate affermazioni al passivo, doppie/triple negazioni, termini specialistici o gergali e parole rare (es mi dica quanto è d’accordo con la seguente affermazione: nn è giusto ke chi ha una famiglia ricca nn possa frequentare una scuola gratuitamente)
  • Domande suggestive o emotivamente cariche: vanno evitate domande ke suggeriscono una possibile risposta (es lei è d’accordo con la maggioranza delle persone ke sostiene ke l’alcol fa male?)
  • Domande ke contengono un’assunzione presupposta: vanno evitate domande ke danno x scontato ke un fatto sia presente nella vita dei soggetti o ke essi abbiano in merito una certa opinione o ke vivano in una determinata condizione (es quanto litiga con suo marito?quante ore al giorno guarda il satellite?)
  • Domande ke paiono ovvie: da evitare le domande ke riportano opinioni verso le quali si avrebbero difficilmente risposte avverse poiché di buon senso (es secondo lei andrebbe aumentato il numero del personale ospedaliero? à anke se sono soddisfatto, difficilmente risponderei no, xke sennò sembrerebbe ke sia favorevole alla diminuzione e, in ogni caso, qst implicherebbe  un miglioramento del servizio

Osserviamo ora le domande aperte o chiuse, tramite i loro vantaggi/svantaggi:

  • Domande Aperte: richiedono la rievocazione
    • Pro: la risposta nn è affetta da distorsioni dovuta alle domande chiuse ed emerge così la vera idea del soggetto (e nn quella ipotizzata dal ricercatore)
    • Contro: i soggetti devono essere sufficientemente motivati a rispondere e devono saper verbalizzare correttamente ciò ke pensano. Inoltre possono nn ricordare sul momento informazioni salienti oppure fornire risposte ke potrebbero nn essere adeguate ai fini della ricerca (sarebbe così necessario un controllo x evitare risposta ambigue). Oltretutto, vi è anke una notevole complessità nella codifica delle risposte
  • Domande Chiuse: richiedono il riconoscimento
    • Pro: richiedono un minor sforzo di recupero mnestico e sono utili se si hanno ben noti i problemi e le loro sfumature; le risposte infine, presentano solo categorie salienti e nn essendo ambigue, permettono una facile codifica delle risposte
    • Contro: possono influenzare i soggetti proponendo solo alcune alternative e tralasciando altre cui nn si era pensato; inoltre, se le alternative sono troppe, possono affaticare i soggetti e, talvolta, capita pure ke i soggetti possano nn ritrovarsi nelle alternative proposte (sarebbe quindi opportuno inserire la categoria altro, ma diventerebbe allora una domanda aperta di complessa codifica)

Nota poi ke a seconda del tipo di domanda ke si sceglie si avranno esiti diversi (es se chiedo qual è stata la scoperta più rilevante del 20° sec, una persona può rispondere l’atomica, ma se tra le chiuse compare l’opzione del computer, quasi tutti scelgono quella). Qst accade xke le domande aperte richiedono la Rievocazione (ke può essere libera o guidataà dipende se è autonoma o aiutata), mentre le chiuse richiedono invece il Riconoscimento (tramite un’identificazione tra le alternative).

 

Tra le 2, oggi si tende ad utilizzare principalmente domande chiuse, poiché i limiti nn eccedono i vantaggi, in termini di costi, contenuti e controllo dati (inoltre nel caso di domande sul reddito, con poche alternative, il rispondente si situerà in fasce ampie e sarà più agevolato nella risposta). Le domande aperte sono preferibili solo nel caso di temi scabrosi (come ad es il comportamento sessuale), in cui il rispondente nn potendo selezionare un’alternativa socialmente desiderabile così facilmente come nelle chiuse, tende a rispondere sinceramente.
Inoltre, è importante nelle domande chiuse prestare attenzione al tipo di scala di frequenza ke si associa alla domanda (es quanto spesso si sente fortemente irritato? à fortemente dovrà avere lo stesso significato x intervistatore e rispondente e dovrà essere considerato in una scala di frequenza -1 volta l’anno, 1 volta ogni 6 mesi, 1 volta al giorno..-).
Nel porre domande vanno poi considerati gli effetti del contesto, poiché una domanda potrà ricevere risposte diverse a seconda del tipo di domande ke la precedono (es se chiedo ad 1 giovane se ha contrasti coi genitori, la risposta cambierà se prima si son fatte domande sulle violenze domestiche/delinquenza giovanile..). Questo vale anke x gli scopi della ricerca: le risposte varieranno in base allo scopo dichiarato (se chiedo a un genitore se picchia i figli, la risposta cambierà se gli dico ke sto facendo una ricerca sulla delinquenza giovanile correlata alle poche punizioni impartite dai genitori oppure sui casi di violenza domestica).
QUESTIONARI DI PRESTAZIONE MASSIMA
Son questionari (di profitto e di attitudine) ke vogliono misurare la prestazione massima e nn quella tipica; sono in genere composti da una domanda  cui seguono alternative di scelte (tra cui una risposta alfa corretta e un’alternativa beta nn corretta). Le difficoltà nella costruzione di un questionario di prestazione massima sta nel formulare domande chiare ma nn facili e offrire alternative ke nn suggeriscano la risposta corretta (è dunque opportuno ke tutte le proposte siano ugualmente probabilià es se chiedo quale pittore ha dipinto un quadro, si ha equiprobabilità se metto il nome di 5 pittori, mentre se metto 2 nomi di pittori e 3 case automobilistiche abbasso il dubbio al 50%). Vanno quindi evitate alternative improbabili.
Inoltre sono da evitare anke domande ke possono suggerire la risposta (es nella domanda quali sono le 2 capitali della Bolivia, se metto alternative con una sola città le scarto automaticamente: quindi è opportuno formulare bene le domande, anke xke spesso, chi compila il questionario, elenca le risposte beta con meno cura delle risposte alfa e qst potrebbe dunque risultare un indizio, come ad es la lunghezza o la completezza dell’alternativa corretta). Un ultimo accorgimento è quello di evitare ke la risposta sia il frutto di un’intersezione di insiemi concettuali (es chi era il leader della DC nel 48? De Gasperi, Togliatti, Nenni, Moro, Andreotti à la prima è quella giusta, xke la 2° e la 3° son del 48 ma nn della DC; la 4° e la 5° son invece della DC ma nn del 48).
Esiste infine x i questionari di prestazione massima una formula x correggere l’effetto delle risposte casuali:
CC = E*(S/A-1)
Dove CC sono le risposte corrette ma dovuta alla casualità; E è il numero di risposte esatte; S è il numero di risposte sbagliate e A è il numero delle alternative. Tuttavia la correzione diventa troppo severa se le alternative sono poche (2-3); va poi tenuto conto ke la correzione nn tiene conto della difficoltà della domanda e ke le alternative dovrebbero essere equiprobabili.
QUESTIONARI AUTOBIOGRAFICI
Essi pongono domande sul passato, ma il rischio sta nel fatto ke il rispondente sia davvero in grado di ricordare gli eventi senza falsi ricordi, omissioni o completamenti. Tra i fattori ke interferiscono con il ricordo abbiamo infatti l’impatto emotivo e la frequenza (à infatti, se un evento avviene con frequenza, rischierà di essere dimenticato o modificato). La memoria autobiografica è divisibile in

  • Extended periods (= ricordi associati a lunghi periodi di tempo; es qnd vivevo a New York),
  • Summarized Events (= gruppi di ricordi, associati a eventi sommari; es qnd andavo a lavorare in quel posto)
  • Specific Events (= eventi specifici; es quel giorno ke ebbi un incidente)

Inoltre, è possibile individuare 2 tipi di teorie implicite, legate al ricordo, ke il rispondente usa x ovviare alla fatica di ricordare eventi passati:

  • Teoria della Stabilità: se il ricordo fallisce, si assume ke il comportamento attuale nn sia diverso da quello passato e si assume qst come termine di paragone (es quanto alcol hai assunto nell’ultimo mese? Nn ricordo ma so quanto ho bevuto negli ultimi 3 giorni e utilizzo qst dato x effettuare la proporzione)
  • Teoria del Cambiamento: sapendo ke dovrebbe essere avvenuto un cambiamento (x es a causa di una terapia), si tenderà in ogni caso a rispondere come se il cambiamento fosse effettivamente avvenuto

Il ricordo richiesto nei questionari sarà spesso minacciato da processi di inferenza ed integrazione chiamati semplificazione strategica e fanno riferimento a 2 tipi di euristiche (= come pervenire a certe cose):

  • Euristica della Rappresentatività: è la tendenza a proiettare caratteristiche rappresentative di una categoria su un membro della categoria stessa (es ho pregiudizi su un gruppo etnicoàlo proietto su un singolo individuo)
  • Euristica della Disponibilità: propensione a stimare come più frequente o probabile un evento solo xke lo si ricorda più facilmente di altri (es ricordo un evento saliente e li giudico rappresentativi dell’intera classe)

X agevolare il ricordo è xo possibile utilizzare alcuni accorgimenti, quali l’uso di un periodo di riferimento nn troppo remoto, il dare suggerimenti alla memoria x ricreare il contesto, la scomposizione della domanda in sottodomande specifiche, l’aumento del tempo di latenza (= tempo ke ce tra la lettura della domanda e la risposta) e il presentare dei landmark temporali (ossia gli eventi rilevanti accaduti) x aiutare la collocazione temporale del ricordo.
In ogni caso, una colta terminata la redazione delle domande, è opportuno fare uno studio pilota x definire meglio gli aspetti come la forma ed i contenuti dello strumento. Questo studio è praticabile grazie a diverse strategie, come quella del Think Aloud (= il pensare/ragionare a voce alta, mentre legge le domande del questionario), l’Intervista Cognitiva (= un intervista fatta al rispondente dopo ke ha completato il questionario, x domandargli ciò ke ha capito e ciò ke ha pensato nel rispondere), l’Intervista in Profondità (= è ank’essa un intervista semistrutturata, ke tratta xo del tema generale del questionario, anziché dei singoli item), l’uso di un Focus Group (= 6-10 persone discutono sul tema della ricerca qnd stimolate da un esperto) e della Parafrasi (= un gruppo di giudici parafrasa i vari item e si verifica se i significati coincidono con quelli ke vorrebbe lasciar intendere il ricercatore).
INTERVISTA
L’intervista è definibile come una conversazione iniziata e guidata (sulla base di uno schema più o meno standardizzato di interrogazione) dall’intervistatore (=il ricercatore) e rivolta ad un numero elevato di soggetti, scelti sulla base di un piano di rilevazione. Essa ha finalità di tipo conoscitivo. A seconda del tipo degli schemi di interrogazione usati (= la standardizzazione) è possibile distinguere tra 3 tipi di interviste:

  • Strutturata: in tale intervista, vengono poste le stesse domande a tutti gli intervistati con la stessa formulazione ed il medesimo ordine. Le risposte dell’intervistato sono aperte, poiché può rispondere come e quanto vuole. L’intervista strutturata è una mediazione tra approccio qualitativo e quantitativo, vista la sua rigidità nello schema delle domande (nn va assolutamente modificato l’ordine di queste) e la sua apertura nella registrazione delle risposte.
    Essa risulta quindi utile qnd si vuole mantenere la standardizzazione, ma nn si conoscono bene le situazioni studiate (à il questionario a domande chiuse è dunque nn possibile); è anke opportuna qnd il fenomeno studiato è troppo complesso e nn permette di prevedere in anticipo le categorie di risposte dei soggetti (es ke differenza c’è x lei tra amore e amicizia? à nn possibile prevedere la risposta xke dipende dal soggetto).
    Nota infine ke le interviste possono essere fatte anke ai bimbi; inoltre le interviste hanno un tipo di strutturazione particolare: es in casa sua i soldi li gestisce suo padre o sua madre? Se suo padre allora../se sua madre allora..  (domanda: se X allora chiedo A/B; se invece Y allora chiedo C/D..)
  • Semistrutturata: In tal caso l’intervistatore dispone di una traccia ke riporta gli argomenti ke deve toccare nel corso dell’intervista; tuttavia, l’ordine col quale i vari temi sono affrontati e il modo di formulare le domande sono lasciati alla libera decisione e valutazione dell’intervistatore.
    Egli è quindi libero di impostare a suo piacimento la conversazione all’interno di un certo argomento, ponendo le domande ke crede (con le parole ke ritiene più opportune), spiegando significati, chiedendo chiarimenti qnd nn capisce e approfondendo ciò ke ritiene necessario. In tal modo l’intervistatore stabilisce un suo personale stile di conversazione, seguendo una traccia consistente in un elenco di argomenti o di domande (es argomento: A, B, C.. oppure argomento: A? B? C?..)à omosessualità: età di scoperta, età di divulgazione, qnd il primo amore; omosessualità: qnd hai scoperto di essere gay? Qnd hai divulgato la cosa ad amici/parenti?a ke età il primo amore?)
    Essa risulta quindi essere una forma intermedia tra interviste strutturate e nn strutturate.
  • Non Strutturata: definite anke come interviste ermeneutiche (= ad interpretazione e quindi libere) è una forma di intervista in cui l’intervistatore nn ha tracce o domande stabilite, ma dispone solo dell’argomento generale ke deve trattare con l’intervistato. In tale tipo di intervista, l’intervistatore deve ascoltare, incoraggiando il soggetto su un certo argomento (e scoraggiandolo contemporaneamente su divagazioni inutili), approfondendo gli aspetti ritenuti interessanti e intraprendendo argomenti nn previsti se utili alla ricerca. Nota ke in tal tipo di intervista, viene più seguita la direzione posta dall’intervistato (l’intervistatore nn vincola eccessivamente dunque).

Esistono inoltre 5 tipi di interviste particolari, a causa delle loro specifiche caratteristiche:

  • Intervista nn Direttiva: in essa nn viene prestabilito nemmeno l’argomento della conversazione: l’intervistatore si lascia completamente condurre dall’intervistato, il quale è libero di portare la conversazione dove meglio crede. Essa vede la sua origine nella psicoterapia (= le libere associazione di Freud), poiché il fatto stesso ke il soggetto parli di una cosa piuttosto di un'altra, viene assunto come elemento diagnostico: lo scopo di tale intervista è quindi quello di aiutare il paziente a portare alla luce i suoi profondi sentimenti.
  • Intervista Clinica: essa è fortemente guidata dall’intervistatore (= psicologo/medico) ke ha come scopo quello di ricostruire la storia personale dell’intervistato, ripercorrendo l’itinerario ke lo ha portato verso un certo esito (x es un comportamento deviante come la droga)
  • Intervista ad Osservatori Privilegiati: si intervistano in tal caso persone esperte su una certa questione o su un certo settore, ke hanno dunque una posizione privilegiata in merito. Spesso si ricorre a questi personaggi nella fase preliminare della ricerca, qnd si è ancora nel momento esplorativo dell’oggetto di studio (ma viene anke usata qnd l’impianto della ricerca è di tipo quantitativo: si vuole analizzare il fenomeno studiato interrogando coloro ke lo conoscono bene)
  • Interviste di Gruppo: si intervistano gruppi omogenei x la variabile studiata, affinché emergano risposte ke nn sarebbero date se intervistati singolarmente (es cosa spinge le persone a votare Lega Nord à la cosa emerge se si radunano in una stanza 10 leghisti e si parla con loro e dalla discussione emergono motivazioni ke nn verrebbero fuori con semplici colloqui individuali)
  • Interviste a Focus Group: un focus group è un gruppo consistente di una decina di persone (numero nn eccessivo ma nemmeno esiguo) coinvolte in una situazione particolare, come la partecipazione ad un certo fatto sociale. L’intervistatore è un esperto ke si prepara accuratamente sull’argomento in questione e ke guida il dibattito con l’obiettivo di analizzare nel dettaglio il problema impedendo il monopolio di alcuni nell’intervista ed esortando contemporaneamente i più riservati (tutto qst senza xo far avvertire eccessivamente la sua presenza). È fondamentale in tale tipo di intervista ke le persone selezionate siano omogenee in merito alle caratteristiche salienti e conoscano bene il problema di cui si discute.

INDICAZIONI SU COME CONDURRE UN’INTERVISTA
Innanzitutto, va detto ke l’intervista è un rapporto sociale tra 2 o più persone, dov’è necessario ke l’intervistatore dia sicurezza, affinché possano emergere i reali pensieri dell’intervistato e le sue emozioni, senza ke il discorso subisca quindi alcuna manipolazione. X far qst, occorre dunque adottare alcuni accorgimenti, come il fornire delle spiegazioni preliminari (di cosa si vuole discutere col soggetto) e preparare le domande primarie anticipatamente (= quelle ke introducono un nuovo tema oppure ke aprono un nuovo interrogativo; è poi possibile preparare anke quelle secondarie, poiché finalizzate ad articolare ed approfondire l’argomento della domanda primaria). Le domande primarie sono di 3 tipi:

  1. Domande Descrittive:  prevedono la descrizione di un certo argomento; x es mi può parlare del suo lavoro? Come si svolge la sua giornata?
  2. Domande strutturali: hanno lo scopo di scoprire come l’intervistato struttura la sua conoscenza; x es ke tipi di persone vengono a lavorare con lei? Ke vie può seguire x far carriera?
  3. Domande contrasto: quelle ke prevedono un confronto tra 2 cose; x es in ke senso il suo attuale lavoro è migliore del precedente?

Oltre alle domande primarie, esistono poi delle domande definite domande sonda: esse nn sono delle vere e proprie domande, ma son degli stimoli neutrali ke han la funzione di incoraggiare l’intervistato ad andare avanti, ad abbassare le sue barriere difensive in modo di approfondire l’argomento e dare così maggiori dettagli. Le domande sonda sono possibili in diverse tipologie:

  • Ripetizione della Domanda: la ripetizione della domanda formulata in un modo diverso à può porre l’accento su alcune cose rispetto ad altre
  • Ripetizione della Risposta (o Azione Eco): consiste nella ripresa delle ultime risposte dell’intervistato, con le sue parole o con una sintesi dell’intervistatore, x invitarlo ad approfondire o a chiarire le sue risposte.
  • Incoraggiamento: consiste in una espressione d’interesse da parte dell’intervistatore manifestata verbalmente (es a-ha, è molto interessante, continui pure, capisco.. à frasi interlocutorie ke incoraggiano il racconto) o testualmente (es cenni del capo)
  • Pausa: a volte, lasciar trascorrere qualche minuto di silenzio, può agevolare la confidenza da parte dell’intervistato (in alternativa, tale momento può essere vissuto come imbarazzante da parte dell’intervistato, il quale riprende il suo racconto con ulteriori dettagli x rompere tale situazione)
  • Richiesta di Approfondimento: talvolta è necessario domandare all’intervistato di soffermarsi su un certo punto, x permettere così chiarimenti o approfondimenti (es mi parli meglio, nn ho ben capito, come mai ha reagito in quel modo..)

Altro elemento fondamentale nell’intervista è il linguaggio: esso rappresenta infatti lo strumento fondamentale nello stabilire il clima di empatia e di comunicazione fra intervistatore e intervistato (à se entrambi parlano “lo stesso linguaggio” è più probabile ke possano capirsi al meglio; ma se si presenta con le vesti dello studioso, vi sarà un clima di diffidenza). Inoltre, occorre sempre la registrazione integrale del colloquio e la sua completa trascrizione (poiché anke esitazioni, errori o frasi monche rivelano contenuti importanti).
Va poi sottolineato ke l’intervistatore ha un ruolo inevitabile nell’interazione con l’intervistato: deve infatti essere presente, ma nn indirizzare la discussione verso temi a lui congeniali, fornendo xo contemporaneamente conforto e comprensione. In generale, l’intervistatore dovrebbe avere 5 caratteristiche:

  1. Possedere uno schema generale e teorico mirato al soggetto
  2. Avere linee guida teorica sulla conduzione dell’intervista
  3. Avere una cultura tale ke gli permetta uno sguardo scientifico ed un atteggiamento umanistico
  4. Avere una personalità appropriata, in cui è possibile tenere sotto controllo le possibili distorsioni
  5. Aver acquisito abilità mediante un training apposito (à apprendimento della teoria delle tecniche con un adeguato addestramento pratico)

L’intervistatore deve possedere inoltre competenze comunicative: deve saper parlare e ascoltare e x tale motivo dovrebbe affinare tutte le capacità del proprio repertorio comunicativo (verbale  e nn verbale), migliorando continuamente attraverso l’esperienza; dovrebbe incrementare inoltre la sua capacità di base di registrare tutti i messaggi, cogliendone senso e significato. Infine, dovrebbe progredire nella gestione dello scambio: dovrebbe preparare (mentre legge e ascolta i messaggi dell’altro), i propri atteggiamenti comunicativi in risposta (postura, parole, tono di voce), in un insieme ke va calibrato sull’interlocutore.
L’intervistatore deve inoltre aver acquisito conoscenze di base relative alla comunicazione verbale e a quella analogica (cosa ke gli permetterà il passaggio attraverso la paralinguistica, la prossemica e la cinesica) e alla consapevolezza dei processi ke inducono le prime impressioni (quelle ke influenzano il proseguimento degli incontri) evitando in tal modo i giudizi frettolosi. Inoltre, egli deve sapere ke nn può mantenersi asettico (privo di passioni/sentimenti)  rispetto alla situazione (nemmeno la più strutturata) e dovrà conservare quindi una piena e presente coscienza di Sé.
Infine, un buon intervistatore, dovrà interrogarsi costantemente sulla congruenza tra le comunicazioni di contenuto e su quelle emozionali, chiedendosi se il modo di fare e di dire dell’interlocutore è relativo alla situazione (occasionale) oppure se è legato ad una caratteristica stabile. Va poi costantemente tenuto in considerazione il grado di contatto stabilito tra loro (intervistatore-intervistato) e se si mantiene costante (tenendo presente anke il tipo di ruolo relazionale ke si stabilisce à ossia gli atteggiamenti ke esibisce e quali si aspetta in risposta).
Quindi, l’attenzione dell’intervistatore nn può essere focalizzata solo su ciò ke vuole sapere, seppur in grado diverso e sempre in relazione alle finalità specifiche ed al contesto dell’intervista, ma anke su ciò ke avviene effettivamente / realmente.
Vediamo ora le competenze relazionali ke dovrebbe possedere l’intervistatore. Innanzitutto va chiarito ke x competenze relazionali si intende quella complessa rete di variabili e processi ke consentono ad un individuo di stabilire una relazione più o meno adeguata, attivando comportamenti congrui. Più specificatamente, sono le azioni ke forniscono apporti utili allo scopo (ed in senso lato agli interlocutori); importanza decisiva in tutto qst è il monitoraggio e l’acquisizione di feedback costanti rispetto all’andamento dell’interazione, così da poter introdurre gli aggiustamenti del caso à ciò è tanto più importante quanto più ci si allontana dalla strutturazione.
Le abilità fondamentali x le competenze relazionali sono:

  • Analisi/ Diagnosi della situazione: ossia quel processo di lettura dell’altro e del contesto, cui conseguono le identificazioni dei problemi e delle loro cause
  • Definizione di un obiettivo: cioè la chiarezza cognitiva con cui si delinea il risultato cui si tende (dev’essere adeguato all’altro e al contesto)
  • Individuazione di strategie operative appropriate: deve essere consequenziale al precedente (venir subito dopo la definizione dell’ obiettivo) e dev’essere funzionale ad individuare le strategie comportamentali idonee a perseguire l’obiettivo.
  • Controllo del proprio comportamento: ossia la capacità di porre in atto quanto strategicamente elaborato
  • Influenza sul comportamento altrui: saper riuscire a produrre nell’altro le modificazioni desiderate (più in generale è ciò ke si produce col proprio comportamento in quello altrui)
  • Verifica del comportamento degli interlocutori: esso è il controllo sul risultato dell’interazione, x vedere nn solo se è cambiato qlcs, ma se qst è avvenuto nel senso atteso e se ciò sia dipeso da quanto agito.

Vediamo ora gli effetti sistematici del giudizio à essi esistono xke nell’intreccio operativo tra strutture cognitive e processi psicologici si può spesso incappare in effetti erronei:

  • Effetto Alone: esso è l’estensione di aspetti o attributi effettivamente rilevati in un tratto di personalità ad altri tratti (à ossia se una persona risulta dotata intellettualmente, sarà anke simpatica, dinamica, disinteressata..)
  • Errore Logico: l’inclinazione a correlare tra loro diversi tratti di personalità, interpretandoli come gruppi omogenei (à es il riscontro di tratti aggressivi porterà a supporre il carattere della dominanza)
  • Pregiudizio Contagioso: il pregiudizio verso gruppi o categorie di persone senza ke esista tuttavia un riscontro oggettivo
  • Effetto Indulgenza: la tendenza ad emettere il giudizio nei termini più benevoli e favorevoli nei confronti dell’interlocutore

INDAGINI PSICOFISIOLOGICHE

LE MISURE FISIOLOGICHE
Molti costrutti psicologici riguardano spesso indici di tipo fisiologico (es le emozioni implicano un’attivazione fisiologica come la sudorazione, il battito cardiaco, la pressione..). Da qui, l’importanza di comprenderle.
Le tecniche di raccolta dati in fisiologia possono essere di tipo:

  • Elettrofisiologico: definita tecnica asciutta. L’applicazione delle misure elettrofisiologiche allo studio dei processi psicologici si definisce anke psicofisiologia à Essa si basa sull’assunto ke vi sia una correlazione tra stati psichici e variazione di indici fisiologici e si applica in 3 ambiti:
    • Sistema NeuroVegetativo
    • Sistema Muscolare
    • SNC
  • Biochimico: definita umida.

Vediamo ora le tecniche possibili:

  • Riflesso Psicogalvanico: chiamato anke risposta elettrotermica, è una misura della conduttività cutanea rilevata dalle dita o dai palmi delle mani. Essa è associata alla produzione di un sottile strato di sudore da parte delle ghiandole sottocutanee e, la traspirazione risultante, è il prodotto di uno stato emotivo, anke molto live.
  • Elettromagnetia: basato sull’impulso elettrico legato alla contrazione muscolare, si applica a studi di riabilitazione e a studi sul movimento corporeo (utilizzato anke in ricerche sull’espressione facciale delle emozioni, o x registrare riflessi condizionati).
  • Poligrafo: è uno strumento x la registrazione contemporanea di più indicatori fisiologici (come l’ECG, EEG, risposta psicogalvanica). Tra i più famosi, c’è il poligrafo della macchina della verità.
  • Movimenti Oculari: lo studio dei movimenti oculari si basa sull’analisi delle saccadi (=  veloci movimenti del bulbo oculare, fatti x spostare la fissazione da un punto all’altro nello spazio à ne eseguiamo 3 al sec circa, ciascuna della durata di 100 ms). I parametri principali x lo studio delle saccadi sono:
    • Ampiezza: spazio percorso nello spostamento
    • Durata: periodo in cui l’occhio è in movimento
    • Picco di massima velocità
    • Latenza: intervallo tra la comparsa di uno stimolo e inizio della saccade
    • Tempo di fissazione: è il periodo di fissazione tra 2 saccadi, in cui l’occhio è fermo su un punto nel campo visivo

I metodi x rilevare i movimenti oculari sono numerosi:

  • ElettroOculoGrafia (EOG): essa sfrutta la differenza di potenziale elettrico tra fondo dell’occhio e cornea, mediante elettrodi posti sul bulbo oculare
    SVANTAGGI: è poco preciso, registra solo i movimenti relativi alla testa, e richiede apparecchiature complesse e di difficile applicazione
    VANTAGGI: è un metodo di registrazione continua ke, oltretutto, nn risente delle condizioni di illuminazione dell’ambiente
  • Bobina Sclerale: si basa sulla variazione di campo magnetico prodotta da una lente a contatto, al cui interno è inserita una bobina
    SVANTAGGI:  è una strumentazione di tipo intrusivo, fastidiosa, in cui i soggetti possono essere restii all’esposizione al campo magnetico; inoltre, è difficilmente trasportabile in ambienti fuori dal laboratorio
    VANTAGGI: permette una rilevazione continua.
  • Metodo di Foto-oculografia: si basano sulla registrazione tramite videocamera delle variazioni del riflesso di un fascio di luce infrarossa prodotte dall’occhio in movimento.
    SVANTAGGI: la testa va tenuta ferma
    VANTAGGI: è tra i più precisi e affidabili x quanto riguarda  risoluzione (0,1°) e frequenza (4000 Hz); inoltre può essere registrato anke in penombra.
    Alcuni esempi di tracciamenti possibili sono:
    • Tracciamento del Limbo: la telecamera segue il limbo (al confine tra la sclera e l’iride). Qst xo  può parzialmente essere coperto dalla palpebra (a seguito di ciò i movimenti verticali verranno registrati con minor precisione)
    • Tracciamento della Pupilla: la telecamera segue il bordo tra pupilla e iride; tale tracciamento è migliore rispetto a quello del limbo in quanto il confine è più netto (sebbene ci sia meno contrasto). Le dimensioni della pupilla tuttavia variano in relazione alla luce e ciò determina imprecisione.
    • Tracciamento delle immagini di Purkinje: il movimento è inferito al fatto ke la telecamera riprende le variazioni nella posizione relativa dei 4 riflessi della luce, sulle superfici dell’occhio (Cornea Interna ed Esterna; Cristallino interno ed esterno).

Bisogna tuttavia dare alcune avvertenze sulle caratteristiche tecniche degli eyetracker à qst xke esistono 2 parametri importanti:

  • Risoluzione Temporale: indica quante volte si registra al sec (in media va da 25 a 4000 Hz à es 50 Hz son 5 campionamenti al sec  xke se ne ha 1 ogni 20 msec). Quindi il valore utile varia in relazione al parametro osservato (x es andrà bene x le fissazioni, ma nn x i TR saccadici ke son troppo veloci)
  • Risoluzione Spaziale: indica la distanza minima tra 2 posizioni oculari riconosciute come distinte (in media da 0,2° a 0,005° di angolo visivo)

Nota ke le applicazioni delle misurazioni dei movimenti oculari sono vastissime: comprendono lettura, percezione visiva, studi sul sonno, dislessia, pubblicità, ergonomia, ricerca sugli human factor, uso di internet e web usability.


NEUROSCIENZE
La raccolta dei dati nelle neuroscienze si basa principalmente su:

  1. Studio di pazienti cerebrolesi: si valuta il deficit funzionale conseguito a causa della lesione. Tra le lesioni più famose abbiamo quella di Broca (causa deficit a livello linguistico). Tra gli studi più sorprendenti si ricordano inoltre quelli ke colgono le relazioni tra corteccia ed emozioni à il caso di Philip Gage, un operaio il cui cranio fu trapassato da una sbarra metallica: ciò nn causo alcun deficit cognitivo/motorio ma cambiò in gran parte il  carattere dell’uomo. Qst xke la sbarra distrusse gran parte del lobo frontale sin, precisamente nell’area implicata nella gestione delle emozioni in rapporto con la cognizione (à divenne sregolato, irriverente, volgare, violento, intollerante..).
    Le cerebrolesioni possono venir fatte anke intenzionalmente à specialmente negli studi sugli animali si producono lesioni localizzate in modo da controllare le conseguenze derivanti dai deficit. Le lesioni permanenti vengono mediate tramite ablazione (asportazione), con lesione da radiofrequenza o con sostanze tossiche ad azione specifica. In alternativa, possono essere prodotte lesioni temporanee utilizzando una criosonda ke, una volta piantata nel cervello, raffredda la zona a contatto, inibendola temporaneamente.
    Nell’uomo, una lesione provocata volontariamente, è la lobotomia prefrontale rompighiaccio, eseguita senza anestesia in migliaia di casi negli ultimi 50 anni à essa serve x rimediare ai disturbi emotivi di molti pazienti, tramite recisione dei fasci di assoni della corteccia orbito frontale, compromettendo in tal modo le connessioni con l’amigdala.
  2. Metodi x lo studio della specializzazione emisferica: si parte dal presupposto ke ogni attività sensoriale o motoria viene elaborata dall’emisfero controlaterale. Gli studi sulla specializzazione possono essere:
    • Nn Invasivi: qst tipo di studi è possibile poiché la specializzazione emisferica prevede tempi e modi di elaborazione  diversi delle info tra i 2 emisferi à vanno poi misurati i TR: se più lunghi, implicano una maggior elaborazione o un maggior coinvolgimento di processi. Un es è rappresentato dagli stimoli verbali letti: essi sono presentati nell’emicampo dx e vanno direttamente all’emisfero sin (deputato all’analisi linguistica) e solo dopo passano all’emisfero dx.
      Altro metodo nn invasivo x lo studio della specializzazione emisferica è l’indagine di eventuali interferenze tra 2 attività concorrenti: x es contare all’indietro rallenta la risposta a stimoli presentati nell’emicampo dx, poiché entrambi i compiti verranno eseguiti dall’emisfero sin; lo stesso avviene x l’emisfero dx nel caso di attività motorie (x es è più facile tenere una matita in equilibrio sulla mano sin mentre si parla, piuttosto ke sulla mano dx, xke in tal caos i 2 compiti confliggono sullo stesso emisfero).
    • Invasivi: es di qst sono il test di Wada e l’elettroshock unilaterale.
      Il test di Wada consiste in un’iniezione intracarotidea di Amytal sodico, il quale provoca una temporanea disfunzione dell’emisfero ipsilaterale à qst causa un deficit senso-motorio nell’emi-soma controlaterale . Es di applicazione di qst venne dato da Cappa e Vallar i quali, studiando se inibendo l’emisfero sin in pazienti afasici, il linguaggio scomparisse del tutto o meno; hanno rilevato ke nn si estingue del tutto supponendo così ke l’emisfero dx possa garantire un certo recupero funzionale.
      L’elettroshock unilaterale invece causa una disfunzione transitoria dell’emisfero colpito: se applicato all’emisfero sin causa disturbi afasici, se causato all’emisfero dx causa disturbi di neglect spaziale. Se bilaterale invece può causare amnesia transitoria.
  1. Metodi elettrofisiologici (EEG, potenziali evocati): x registrare l’attività dei singoli neuroni si ricorre a microelettrodi ke vengono piantati stabilmente nel cervello.
    La stimolazione con microelettrodi è stata possibile, partendo dalle ricerche di Penfield: si è costruita con essi una mappa funzionale della corteccia cerebrale umana, seguendo le attività motorie o cognitive attivate dalla stimolazione di ogni singola zona. Grazie a tali studi, oggi nn è più necessaria l’asportazione della calotta cranica, e le stimolazioni possono essere differite nel tempo.
    • L’ EEG fornisce invece indicazioni sull’attività elettrica del cervello, sempre grazie a degli elettrodi posti sulla superficie del cranio (in una collocazione standard); La registrazione ha un’ampiezza che va da 0 a 40 Hz ed è divisa in 4 bande (delta, theta, alfa, beta); esso, sebbene abbia scarse applicazioni in neuropsicologia (poiché nn produce immagini dirette del cervello, né ha una buona localizzazione delle attività), è usato in studi sulla lateralizzazione, sulla negligenza spaziale, sulle afasie, sull’epilessia, sul sonno ecc.
      Vediamo infine la MagnetoEncefaloGrafia (MEG): essa registra la distribuzione dei campi magnetici ke accompagnano i potenziali elettrici cerebrali, permettendo così una localizzazione della loro sorgente intracerebrale.
    • Gli ERP (Potenziali Evento Correlati) sono piccole variazioni elettriche dell’attività cerebrale spontanea, sincronizzati con eventi definibili sperimentalmente (come l’inizio di uno stimolo o di un movimento à nota ke ciò nn è rilevabile con l’EEG). Essi sono rappresentati come onde, ossia variazioni del voltaggio nel tempo, compreso tra -5 e +5 microVolts; i picchi son definiti in base alla polarità P (positiva) o N (negativa), dalla loro posizione nell’onda (es N2 à seconda onda negativa) e dal tempo di latenza espresso in ms (es P300 è l’onda positiva ke compare 300 ms dopo lo stimolo).
      Gli ERP possono essere distinti in 2 dimensioni:
      COMPONENTI ESOGENE: sono più precoci e dipendono dalle caratteristiche fisiche dello stimolo (nn risultano quindi influenzate dallo stato psicologico del soggetto).
      COMPONENTI ENDOGENE: sono più tardive e dipendono anke dallo stato psicologico del soggetto (e risultano oltretutto quelle più interessanti dal punto di vista neuropsicologico).
      Tra quelle fondamentali ricordiamo:
      N1 o N100 à processi precoci di attenzione selettiva
      N2 o N200 à processi automatici ke registrano variazioni (= oddballs) in una sequenza monotona di eventi
      N4 o N400 à lettura di stimoli inattesi o incongruenti in ambito semantico
      P3 o P300 à processi percettivi/mnestici legati all’identificazione/classificazione di oddballs
      CNV (Contingent Negative Variation) à indica la preparazione alla risposta ad uno stimolo successivo.
  1. Metodi x la visualizzazione del SN (TAC, PET, fRMI): I metodi di visualizzazione cerebrale possono essere di diverso tipo:
    •  La Tomografia Assiale Computerizzata (TAC) consiste nell’immissione della testa del paziente in un anello cilindrico, il quale contiene raggi X (una sorgente che li lancia e una ke li capta) ke gli attraversano la testa da tutte le angolazioni: ciò permetterà una resa molto elevata e dettagliata, ke renderà poi possibile lo studio di zone cerebrali profonde. Inoltre, se presenti, sarà possibile anke la visione di lesioni ke appaiono bianche (qst xke il sangue assorbe più radiazioni del tessuto cerebrale).
    • Vediamo ora la Risonanza Magnetica (RM): a causa del passaggio di un campo magnetico molto forte (attraverso la testa del paziente), i nuclei degli atomi d’idrogeno si orientano in una determinata posizione al passaggio della radiofrequenza, ed emettendo una certa energia ke risulterà proporzionale alla loro densità (tessuti più densi emetteranno più radiofrequenze); il vantaggio maggiore della RM è ke consente una visione di sezioni cerebrali nn solo sul piano orizzontale (come la TAC) ma anke su quello sagittale e frontale, il tutto senza somministrare raggi X o altre sostanze tossiche.
      Una versione più sviluppata della RM è la fRM (risonanza magnetica funzionale), la quale viene eseguita con uno scanner x RM, capace di eseguire una visualizzazione del metabolismo regionale, rilevando i livelli di ossigeno nei vasi ematici del cervello (basandosi sull’ipotesi ke a più ossigeno corrisponde più attività cognitiva) à in tal modo è possibile localizzare incrementi dell’attività neurale nei soggetti (anke impegnati nello svolgimento dei compiti).
    • Un ulteriore metodo di visualizzazione cerebrale, meno conosciuto dei precedenti, è il flusso ematico cerebrale regionale (rCBF): esso ipotizza ke il flusso ematico regionale sia correlato con l’attività metabolica (e di conseguenza con l’attività funzionale dei neuroni) à si inetta pertanto nel soggetto un tracciante isotopico la cui variazione di concentrazione viene registrata da detettori extra-cranici posti sulla superficie della testa.
    • La PET (tomografia ad emissione di positroni) è uno dei metodi più conosciuti: si inetta nel paziente una sostanza radioattiva (innocua) le cui molecole si scindono emettendo poi particelle subatomiche rilevate dallo scanner. In tal modo, il computer determina quali regioni del cervello hanno assorbito la sostanza radioattiva e realizza così un’immagine del cervello con le varie regioni colorate, in base all’attività metabolica dei neuroni.

     

METODI OSSERVATIVI
I metodi osservativi permettono di osservare, registrare e descrivere il comportamento dei soggetti in condizioni standardizzate (ossia controllate) o naturali. In tale metodo, nn è il soggetto ke valuta se stesso, ma l’osservatore: qst analizza il comportamento in modo diretto (se presente nella scena) o indiretto (osserva il tutto mediante una registrazione audio-video).
I vantaggi di questi metodi sono la spontaneità dei soggetti e la possibilità di analisi di soggetti ke possono risultare anke nn collaborativi nella compilazione di questionari e simili (es bimbi e animali).
Nota ke l’osservazione può essere ingenua (qnd nn coglie i particolari fondamentali) oppure metodica (qnd a riesce a cogliere gli aspetti qualitativi e quantitativi fondamentali à qualitativi: analisi del discorso, etnografia ecc; quantitativi: trasformazione numerica à essa può essere metrica/valutativa se definisce l’intensità del comportamento in categorie numeriche, es da 1 a 7 oppure codifica/sistematica, qnd si associano i comportamenti a categorie x analizzarne la frequenza, es lei si tocca 5 volte i capelli).
Es di ricerca QUANTITATIVA è quella di Sampson e Laub: in quanto assente una rassegna teorica, gli studi di sociologia criminale sui reati commessi in età adolescenziale nn considerano i comportamenti criminali nell’infanzia e nell’età adulta. Le teorie possibili al riguardo divennero dunque: 1) i tratti di criminalità si formano nell’infanzia e rimangono stabili; 2) i tratti di criminalità cambiano nel corso della vita. X verificare ciò, occorrono quindi degli studi longitudinali, ke vennero fatti su 500 ragazzi autori di reato e 500 ragazzi “normali”, con caratteristiche simili ai precedenti.
Si procedette pertanto all’osservazione x 10 anni di comportamenti criminali, definiti in base alla letteratura e codificati x frequenza. Tra le variabili dipendenti esistevano gli indicatori di devianza NON ufficiali, quali gli atti illegali (come il borseggio, il furto..) e la cattiva condotta (fumare, bere..), e gli indicatori di devianze ufficiali, ossia i reati denunciati all’autorità giudiziaria. Da ciò emerse una relazione statisticamente significativa tra la dimensione familiare (es padre/madre freddi, minacciosi, ostili..) ed il comportamento deviante (nota ke in tale ricerca vennero quantificati soprattutto gli elementi definiti come devianti).
Nota ke nell’ approccio quantitativo è possibile un’analisi del contenuto, ke serve ad estrarre info dal materiale raccolto (verbalmente con interviste, registrato graficamente..). Esso è divisibile in unita di testo (es intervista di Jankowsky ad un membro della gang), unità di codifica (ossia il personaggio analizzato e la tematica ad esso inerente) ed unità di contesto (ossia il contesto utile x codificare il tema).
Un es di ricerca QUALITATIVA è invece quella di Jankowski. Proprio come nella precedente ricerca, nn esisteva alcuna rassegna teorica. L’assunto di partenza ipotizzato, pertanto, fu ke la gang nn è una deviazione delle norme sociali, ma un’alternativa ad esse ke risulta cmq ugualmente organizzata: l’individuo tendenzialmente ribelle, individualistico e aggressivo, trova difatti nella gang un luogo idoneo x la propria affermazione (à questa è infatti ben strutturata, gerarchica e vanta legami solidi con la comunità -protezione, omertà-). S ricorse così ad un metodo di osservazione partecipata (àl’autore frequentò x 10 anni 37 gang, raccogliendone i dati su un taccuino o con registrazioni audio) con cui Jankowski smentì le ipotesi sulla devianza sociale avanzata dalle ricerche precedenti: la gang nn implicava infatti al provenienza da famiglie disgregate, con figure genitoriali assenti; l’adesione alla gang nn sorgeva pertanto come sostituto alla famiglia o in seguito all’abbandono scolastico/disoccupazione (e tanto meno x imitazione dei ragazzi più grandi). Si propose dunque ke i ragazzi entravano nelle gang x ragioni di convenienza sotto vari aspetti: incentivi materiali (mi danno da mangiare/soldi), divertimento (feste, ragazze), nascondiglio/rifugio (ti nasconde in caso di bisogno), protezione fisica (da malviventi), luogo di resistenza (contro la società/il futuro) e impegno comunitario (la gang sorse tempo fa e dobbiamo continuarla xke molto aiuto ke ricevetti lo si deve a lei).
Vediamo ora un confronto tra ricerca Qualitativa e Quantitativa:
IMPOSTAZIONE DELLA RICERCA      

  • Relazione Teoria-Ricerca:
    Quantitativa à è strutturata, le fasi sono logicamente sequenziali, ed il metodo è deduttivo (la teoria precede l’osservazione: T-O)
    Qualitativa à è aperta ed interattiva; il metodo è induttivo, poiché la teoria emerge dall’osservazione (O-T)
  • Funzione della letteratura:
    Quantitativa à fondamentale x via del bisogno di definire teoria ed ipotesi
    Qualitativa à è ausiliaria
  • Concetti:
    Quantitativa à si da una definizione operativa dei concetti
    Qualitativa à i concetti sono operativi, aperti ed in costruzione: nn se ne deve dare pertanto una definizione operazionale
  • Rapporto con l’ambiente:
    Quantitativa à è un approccio manipolativo (cambia le cose x vederne le conseguenze)
    Qualitativo à  utilizza un approccio più di tipo naturalistico
  • Interazione Psicologica studioso-studiato:
    Quantitativa à ricorre ad un’osservazione scientifica, distaccata e neutrale (un approccio freddo)
    Qualitativa à avviene un’immedesimazione empatica (si assume pertanto la prospettiva del soggetto studiato)
  • Interazione Fisica studioso-studiato:
    Quantitativa à si ricerca la distanza e la separazione
    Qualitativa à si ricerca prossimità e contatto
  • Ruolo del Soggetto Studiato:
    Qualitativa à il soggetto ha ruolo Passivo
    Quantitativa à il soggetto ha ruolo Attivo

RILEVAZIONE

  • Disegno della Ricerca:
    Quantitativa à il disegno precede la ricerca ed è quindi strutturato e chiuso
    Qualitativa à in quanto il disegno viene costruito nel corso della ricerca, esso è destrutturato e aperto
  • Rappresentatività:
    Quantitativa à ha dei campioni ke sono statisticamente rappresentativi
    Qualitativa à ha dei casi singoli, ke nn sono statisticamente rappresentativi
  • Strumento di Rilevazione:
    Quantitativa à è altamente standardizzato, in quanto uniforme x tutti i soggetti (l’obiettivo è infatti di avere una matrice dei dati)
    Qualitativa à lo strumento di rilevazione varia a seconda dell’interesse dei soggetti (nn si tende infatti alla standardizzazione)
  • Natura dei Dati:
    Quantitativa à sono oggettivi e standardizzati (definiti anke hard xke si contrappone oggettività con la soggettività)
    Qualitativa à i dati sono ricchi e profondi (definiti soft xke profondità contrapposta a superficialità)

ANALISI DEI DATI

  • Oggetto dell’analisi:
    Quantitativa à la variabile (avviene in tal modo un’analisi x variabili, ke risulta impersonale)
    Qualitativa à oggetto dell’analisi è l’individuo (analisi x soggetti)
  • Obiettivo dell’analisi:
    Quantitativa à spiegare le variazioni delle variabili (spiegare la varianza)
    Qualitativa à comprendere i soggetti
  • Tecniche Matematiche e statistiche:
    Quantitative à usate ampiamente
    Qualitative à non impiegate

RISULTATI

  • Presentazione dei dati:
    Quantitativa à inseriti in tabelle, di modo da poter così dare una prospettiva relazionale
    Qualitativa à siccome presenta i dati in una prospettiva narrativa, fornisce brani di interviste/di testi
  • Generalizzazioni:
    Quantitativa à si tendono a ricercare correlazioni, modelli causali e leggi, secondo una logica della causazione
    Qualitativa à si tendono a fornire classificazioni e tipologie, secondo una logica della classificazione
  • Portata dei Risultati:
    Quantitativa à i dati ottenuti sono generalizzabili ad altri
    Qualitativa à i risultati sono specifici

Domandandosi quale delle 2 ricerche possa essere migliore, intervengono poi 3 grandi posizioni:

  1. I 2 approcci sono incompatibili: c’è chi sostiene le analisi qualitative e chi invece sostiene quelle quantitative
  2. I 2 approcci sono compatibili: si sostiene tuttavia ke l’osservazione sia prescientifica, euristica (da cui trarre le scoperte), mentre la quantificazione sia invece il vero momento scientifico
  3. I 2 approcci sono legittimi: la loro adozione dipende dalle circostanze e soprattutto dalla visione del problema in questione (à ke dipende anke dalla posizione del ricercatore).

Distinguiamo infine 2 tipi di Osservazione:

  • Osservazione Naturalistica: esso è un metodo x l’osservazione del comportamento, proveniente da analisi etologiche/naturalistiche, caratterizzata da:
    • Nn intrusività: nn viene infatti manipolata la situazione (come negli esperimenti classici): l’osservatore rimane semplicemente in disparte (se possibile senza farsi notare, così da poter garantire la naturalezza del comportamento -a tal fine utilizzabili specchi unidirezionali, telecamere nascoste o nascondigli-) e osserva ciò ke accade.
    • Condizioni Ecologiche di Osservazione: nn essendoci artificialità, ed essendo posto in un contesto di vita proprio, la persona nn sa di essere osservata e agisce dunque in modo più spontaneo e naturale. Qst tuttavia nn significa assenza di regole o ipotesi-guida à difatti, occorre sapere cosa osservare, x poter estrarre così delle unita di comportamento salienti (gesti, suoni, ripetizioni..). Il limite principale è ke la naturalezza comporta un minor controllo: dunque nn si ha certezza sui rapporti causa-effetto.
    • Regole: l’osservazione naturalistica prevede alcune regole fondamentali:
      • Categorizzazione: occorre estrarre unità di comportamento sapendone individuare la giusta generalità e relazione  (es vedo un uomo correre: può aver fretta, può fare sport, potrebbero inseguirlo..).
      • Comportamenti Molari e Molecolari: i comportamenti possono infatti essere analizzati a 2 livelli: i comportamenti molari sono più generali, ampi e rivolti ad uno scopo a lungo termine (es seguire un corso di studi, intraprendere un viaggio..); i comportamenti molecolari invece sono limitati temporalmente al qui ed ora, poiché nn riflettono necessariamente l’orientamento ad uno scopo e quindi un’intenzionalità (es sorrisi, colpi di tosse..).
      • Tempo di Osservazione: il tempo varia da situazione a situazione: l’osservazione sul campo può infatti richiedere molto tempo (anke mesi) mentre quella in laboratorio solitamente anke solo pochi giorni. La durata inoltre dipende anke dall’oggetto di studio: alcuni eventi sono difficilmente regolabili temporalmente (x es il corteggiamento: nn si sa qnd accade); altri invece meno (x es il gioco: ricorre frequentemente).
      • Strategie x rappresentare i dati: la rappresentazione può avvenire x eventi o x stati: nella rappresentazione x eventi si codifica la frequenza con cui si manifestano certi comportamenti (es il n° di volte ke piange); nella rappresentazione x stati invece avviene una codifica della durata temporale degli eventi anke multipli (es x quanti sec piange).
      • Intervalli: il comportamento viene studiato allo scadere di intervalli prefissati, oppure lo si studia all’interno di tali intervalli (oppure ancora ci si può basare sugli intervalli naturali à es la turnazione del discorso).
      • Registrazione: le note di osservazione (à come la descrizione dei fatti, la descrizione di ciò ke è avvenuto prima, le deduzioni analitiche, le impressioni personali, le note e le aggiunte) nn possono essere contemporanee all’osservazione, ma nemmeno troppo dilazionate.
        Nella registrazione inoltre si può ricorrere a sistemi analogici e digitali: i pro sono ke la registrazione risulterà completa, si avrà la possibilità di rivedere i filmati, si avrà la possibilità di diffusione dei filmati e di una minore intrusione. Tuttavia, il principale svantaggio è la rigidità ke si ha nella raccolta dei dati.
  • Osservazione Partecipante: è chiamata così xke consiste in un’osservazione (= guardare e ascoltare) partecipante (poiché si partecipa, si vive e si interagisce con la situazione osservata). Il ricercatore dunque osserva e partecipa alla vita dei soggetti studiati, vivendo come e con i soggetti, entrando nella loro quotidianità e osservandoli dall’interno, così da poter raggiungere una vera comprensione.
    I presupposti necessari all’osservazione partecipante sono:
    • Un’immedesimazione: ossia una comprensione dal punto di vista degli attori sociali mediante l’immedesimazione
    • Immersione e interazione: l’immedesimazione a sua volta è possibile solo se c’è totale immersione ed interazione nella quotidianità dei soggetti.

Se sono presenti tali fattori, allora può avvenire una vera comprensione sociale.
X definizione, l’osservazione partecipante è una strategia di ricerca nella quale il ricercatore si inserisce in maniera diretta, e x un periodo relativamente lungo, in un gruppo sociale (à inserito nel suo ambiente naturale) ed instaurando coi membri di questo un rapporto di interazione personale, allo scopo di descriverne le azioni e di comprenderne, mediante un processo di immedesimazione, le motivazioni. Osserviamo gli elementi di tale definizione nel particolare:

  • In maniera diretta: poiché la ricerca è personale (nn si può delegare qualcuno) e va condotta in prima persona
  • Periodo di osservazione lungo: ossia ke vada da qualche mese a qualche anno
  • Luogo: l’osservazione deve avvenire necessariamente nell’habitat naturale, e nn nel laboratorio
  • Immedesimazione: poiché l’osservatore nn si limita ad osservare, ma interagisce
  • Comprensione (o coinvolgimento): in quanto l’osservatore deve capire dall’interno, mettendosi nei panni dei soggetti

Nota ke gli ultimi 2 elementi (comprensione/coinvolgimento ed immedesimazione) sono utilizzati a scapito dei valori neopositivisti di oggettività e distanza. L’ideale sarebbe una posizione intermedia tra “il marziano” (à cioè distante e nn coinvolto) e “il convertito” (à cioè troppo immedesimato e acritico).
Un caso particolare è poi quello della sociologia autobiografica, cioè qnd gli autori studiano le realtà di cui fanno o hanno fatto parte (es Scott giocava d’azzardo à ha condotto poi studi in merito; Irwin era un ex detenuto à ha condotto poi ricerche sulle carceri americane..). Tali approcci autobiografici sono tuttavia criticati x via dell’eccessivo coinvolgimento con la realtà studiata.
Va poi sottolineato ke l’osservazione partecipante nn si avvale solo dell’osservazione, ma anke di interviste più o meno strutturate à nn esiste tuttavia una regola precisa x la conduzione dell’osservazione (essa è infatti un flusso irregolare di decisioni sollecitate dalla mutevole configurazione degli eventi, ke si succedono sul campo).
Vediamo ora i campi di applicazione. In generale, si usa l’osservazione partecipante qnd si sa poco in merito ad un certo fenomeno, esistono forti differenze tra interno ed esterno, il fenomeno si svolge al riparo da sguardi estranei ed è quindi deliberatamente occultato all’esterno. I 2 grandi campi di applicazione, in cui agisce l’osservazione sono:

    • Studi di Comunità: esse risultano come microcosmi sociali autonomi (e di conseguenza isolati) à essi sono poi caratterizzati da un universo culturale chiuso (es comunità contadine à Benfield in una ricerca si trasferì x 9 mesi in una comunità arretrata, concludendo ke il mancato sviluppo dipendeva dall’individualismo degli abitanti e dall’incapacità di agire x il bene comune).
    • Studi di Subculture: le subculture sono sottosistemi all’interno di culture, visibili come segmenti sociali definiti e agenti all’interno della complessità sociale (es sette religiose, minoranze etniche, carcerati..). Es di questi studi vengono da Roy (si fece assumere presso un’officina ke costruiva materiale ferroviario, x capire la limitazione volontaria della produttività degli operai)

Esempi di osservazione partecipante ci provengono da Budford (l’autore si unì agli hooligans, partecipando anke a violenze, x condurre una ricerca sul tifo violento) e da King, il quale osserva con una telecamera la vita quotidiana di una coppia sposata ke lentamente si disgrega fino al divorzio (fece poi anke una ricerca all’interno di una scuola x bimbi con disordini emotivi, osservando le varie reazioni di questi).
L’osservazione partecipante può essere poi palese o dissimulata:

  • Osservazione Dissimulata: Se la gente sa di essere osservata nn è più spontanea, quindi occorre mascherarsi (cosa necessaria qnd vogliamo osservare come la gente si comporta qnd nn è osservata). Il problema principale in merito alla dissimulazione è di tipo etico (à l’inganno vale la ricerca?); inoltre il ricercatore potrebbe essere a disagio nel vivere l’inganno: potrebbe nn essere naturale o temere di essere scoperto (à la qual cosa potrebbe concludersi con la fine della ricerca o addirittura lesioni personali).
    In generale, dunque, l’osservazione nn dovrebbe essere dissimulata, se nn qnd riteniamo la ns presenza come elemento disturbante x il comportamento del soggetto.
  • Osservazione Palese: Talvolta è necessario porre delle domande esplicite e dirette; tuttavia, x far ciò è impossibile nascondersi e si pratica pertanto un’osservazione palese (qnd è evidente ke ti osservano). È dunque bene precisare ke anke chi sa di essere osservato, dopo i primi timori torna ad essere spontaneo; inoltre, può capitare ke il problema nn si ponga nemmeno (come ad es l’osservazione della follia allo stadio: anke se osservati, si comportano spontaneamente).
    Infine, se il gruppo è particolarmente chiuso all’esterno, richiederà conoscenze precise à siccome il ricercatore, di sovente nn ha esperienze precedenti, è fortemente consigliabile palesare le intenzioni di ricerca. Spesso si può xo far ricorso a mediatori culturali o altri informatori ke garantiscono un accesso privilegiato alle fonti, senza trovare così resistenze da parte della comunità.

Specifichiamo infine 3 cose dell’osservazione partecipante:

  • Che cosa Osservare: vanno osservati il contesto fisico (à descrivendo caratteristiche fisiche salienti senza eccedere nelle interpretazioni), il contesto  sociale (à descrivendo persone, abiti, abitudini..), le interazioni informali (à descrivendo come le persone interagiscono in attività quotidiane: ad es qnd sono in un negozio, sul bus, in coda..) e le interpretazioni degli attori sociali (à ossia la descrizione di ciò ke le persone dicono in merito ai fatti salienti della loro esistenza, in conversazioni spontanee o in interviste mirate)
  • Registrare e codificare i dati raccolti: occorre stendere gli appunti (creando una specie di diario) senza affidarsi alla memoria, in quanto limitata e selettiva. L’analisi dei dati inoltre, va fatta (a differenza di molte altri tipi di ricerca) in contemporanea con la raccolta di questi, creando così un ciclo continuo dove le osservazioni sono guidate da ciò ke si evince nel corso dell’indagine (si crea così una retroattività ed una ciclicità dell’analisi dei dati).
    Infine, una volta ke sono stati codificati i dati, essi vanno classificati in unità di senso (es Jankowski individuò come tema sociale di fondo una visione darwiniana della vita nella gang, dove i singoli sono sempre in lotta con gli altri e con l’ambiente).
  • Critiche al metodo dell’osservazione partecipante: le critiche mosse riguardano principalmente 3 aspetti:
    • Soggettività del ricercatore: l’osservatore è lo strumento stesso dell’osservazione: tuttavia questo, potrebbe influenzare l’osservazione essendo portatore di cultura, di una certa personalità, valori e stili di pensiero
    • Impossibile generalizzazione dei casi studiati: difatti, nn è solo l’osservatore ad essere affetto da soggettività. Anke i casi studiati sono sempre unici, cosa ke difficilmente porterà lo studio ad un estensione di livelli tali da rispettare la validità esterna
    •  Nn standardizzazione delle procedure utilizzate: oltre a cambiare gli osservatori e gli oggetti osservati, cambiano anke gli ambienti e le condizioni à com’è possibile dunque garantire la replicabilità della ricerca? Inoltre la soggettività e l’unicità della situazione sono considerabili come un limite o come una risorsa?

METODI DESCRITTIVI
I metodi descrittivi servono ad identificare e descrivere le relazioni (o correlazioni) tra alcune variabili. Tra i metodi descrittivi abbiamo (oltre all’osservazione naturalistica  già vista in precedenza):

  1. Ricerca d’Archivio: la ricerca d’archivio si basa sull’analisi di documenti raccolti da persone diverse dallo sperimentatore (x finalità diverse da quelle della ricerca à es lettere, diari, sentenze, contratti..) e conservati in appositi archivi.
    La ricerca si propone così di descrivere un fenomeno, delineando una relazione tra variabili (nn necessariamente causale). La ricerca d’archivio presenta Pro e Contro:
    • Pro: nn c’è reattività da parte dei soggetti osservati, xke l’analisi avviene dopo ke l’atto è stato registrato (in tal modo si evita l’effetto reattività). Inoltre, il fatto ke i dati sono scritti su documenti, può estendere la ricerca ad eventi anke molto lontani nel passato.
    • Contro: spesso i dati sono raccolti con modalità ke si rivelano nn adeguate x gli scopi della ricerca; il ricercatore deve tuttavia accontentarsi di quello ke ha, praticando una selezione (à selettività d’archivio). Inoltre, nn può aggiungere altri dati, sebbene talvolta la conservazione dei documenti sia incerta (à sopravvivenza selettiva).

Infine, va affermato ke la ricerca d’archivio può contare su 3 tipi di fonti:

  • Documenti Personali: tra questi incontriamo le autobiografie (ossia resoconti spontanei -oppure richiesti- della propria vita; il limite principale di questi è ke l’autore può avere memoria selettiva sugli eventi della sua vita, narrando solo ciò ke ritiene più interessante e razionalizzando a posteriori gli avvenimenti), i diari (ank’essi possono essere spontanei o commissionati dai ricercatori; sono più fedeli poiché scritti quotidianamente, ma poco generalizzabili) e le lettere (esse possono essere inviate a conoscenti, familiari, giornali o istituzioni).
  • Documenti Istituzionali: essi sono il prodotto della ns vita istituzionalizzata, in quanto riportano la traccia di ogni ns azione (es biglietti del treno, bollette, anamnesi mediche..).
    I documenti istituzionali comprendono i mezzi di comunicazione di massa, di cui i più importanti sono:
    • I giornali: essi sono fonti ricchissime di dati, sia x quanto riguarda le notizie, sia x quanto concerne lo stile della narrazione, sia x le rubriche presenti; x es si può vedere lo stile dei necrologi x capire il rapporto ke si ha con la morte, osservare gli annunci di lavoro x capire come cambiano le professioni, oppure ancora analizzare la pubblicità x capire lo stereotipo ke si ha del consumatore.
    • La televisione: i suoi programmi sono un indicatore saliente di tendenze, tratti e fenomeni; x es si può analizzare il contenuto e lo stile delle soap opera, presenza di alcolici e tabacchi nei film come incentivo a bere/fumare, violenza in TV..
    • Libri, Narrativa, cultura popolare e programmi scolastici

Inoltre vanno citati, sempre come documenti istituzionali, gli atti giudiziari (x es i rapporti di coppia vengono studiati attraverso l’analisi delle pratiche di divorzio), gli atti della politica (quali slogan, atti parlamentari ed esiti elettorali) e le tracce fisiche (quali le tracce di usura, i rifiuti e le scritte sui muri)

  • Fonti Statistiche Ufficiali: l’analisi delle statistiche ufficiali può consentire di notare correlazioni interessanti tra i fenomeni (x es tasso di suicidi e livello di istruzione). Durkheim, in particolare condusse una delle prime ricerche sociologiche sulla base di statistiche ufficiali (osservò come la religione influiva sulla tendenza al suicidio, ma la relazione tra i 2 fattori poteva essere spuria, in quanto è plausibile ke il suicidio fosse mediato anke da fattori culturali. La ricerca alla fine concluse ke la religione protestante, a differenza di quella cattolica, da’ maggior rilievo alla libertà personale: tale maggiore individualismo sovraccarica poi il singolo di responsabilità, in quanto autore della propria fede). Durkheim correlò poi il tasso di suicidi col fatto di essere sposati con figli à emerse ke l’essere in coppia nn preserva dal suicidio, ma l’avere una famiglia con figli si. L’autore infine notò ke le tendenze al suicidio calavano durante periodi storici di forti tensioni sociali (x es durante le guerre). La conclusione finale ke trasse dai suoi studi fu ke il suicidio varia in relazione inversa col grado di integrazione sociale dell’individuo, espressa dal tipo di religione, dall’avere dei figli e dal sentirsi più uniti come gruppo di fronte a eventi drammatici.
  1. Studio sui Casi Singoli: esso consiste nell’analisi intensiva del comportamento di una singola persona attraverso dei colloqui. Lo studio sui casi singoli è un’indagine empirica ke investiga un fenomeno attuale nel suo contesto naturale ( poiché i confini tra il contesto ed il fenomeno nn sono evidenti) e in cui sono utilizzabili fonti molteplici di dati empirici.
    Nota inoltre ke il caso singolo talvolta può coincidere con una persona fisica, mentre altre volte coincide con un gruppo di persone omogeneo (come un gruppo di lavoro o una classe).
    I dati possono essere raccolti mediante colloqui (il quale nn è osservazione fine a Sé stessa, ma un’osservazione selettiva, la cui selettività è guidata dalla teoria di riferimento dell’analista) o con altri metodi NN sperimentali.
    Un particolare tipo di studio sui casi singoli è il colloquio clinico. Il colloquio clinico di consultazione è quella situazione particolare ke permette, in un assetto metodologicamente corretto e in un clima emotivo idoneo (à l’alleanza diagnostica, ossia la fiducia reciproca) al paziente di presentarsi, di comunicare le sue difficoltà e fornire gli elementi necessari alla consultazione (= ossia definire un’area; il colloquio di consultazione nn deve contenere in Sé alcuna scelta preordinata à la liberta dei 2 attori dev’essere anzi rispettata), mentre al clinico consente di osservare, rilevare e comprendere questi ultimi.
    In generale, il colloquio clinico deve saper affrontare diverse situazioni, a partire dall’incontro preliminare col paziente à egli potrebbe infatti avere contatto col terapeuta x 3 principali motivi (e nota ke ogni situazione porta con Sé alcune problematiche ke devono essere tenute in considerazione durante il colloquio):
    • Il paziente è venuto di sua spontanea volontà: in tale caso, l’individuo ha raggiunto la consapevolezza di avere un disagio e di nn essere in grado di superarlo da solo. Egli decide quindi (sebbene probabilmente in una situazione potenzialmente conflittuale, x i più vari motivi) di rivolgersi al terapeuta. Tuttavia, se il paziente si rivolge x la prima volta al clinico, occorre prestare attenzione a situazioni come:
      • Perplessità: poiché il paziente nn è mai certo di essersi rivolto alla persona giusta (da ciò diffidenza e una valutazione attenta e continua)
      • Disorientamento: dovuto all’effetto destabilizzante di ogni sintomo
      • Delusione Narcisistica: chiedere aiuto, x molti è interpretabile come un’ammissione di sconfitta e di incapacità a fronteggiare la situazione da soli
      • Sensi di Colpa: qnd si attribuisce il disagio a certi comportamenti scatenanti
      • Confusione: dovuta a pareri informali ricevuti in precedenza da amici e parenti
      • Autodiagnosi propria: ogni paziente ha una teoria implicita della propria sofferenza (= teoria naif della patologia)
      • Imbarazzo e Vergogna: sentimenti tipici di una situazione in cui si chiede aiuto

Può inoltre capitare ke il paziente si rivolga spontaneamente al clinico poiché insoddisfatto del precedente terapeuta (ed è fondamentale ke il nuovo terapeuta capisca i motivi dell’insoddisfazione del paziente nei confronti del precedente collega):

  • Insoddisfazione della Diagnosi: il paziente ritiene ke la diagnosi fornita dal precedente terapeuta nn fosse coerente con la propria autodiagnosi
  • Insoddisfazione sugli Esiti: se il paziente aveva aspettative di guarigione ke nn sono state tuttavia soddisfatte
    • Il paziente è venuto su invito di altri (familiari, amici..): va prestata molta attenzione a questo punto, poiché nn bisogna lasciarsi coinvolgere dalla relazione (magari controversa) ke c’è tra il paziente e chi lo ha convinto alla terapia. In generale, si può affermare ke il colloquio deve porsi alcuni obiettivi come la comprensione degli argomenti dei familiari (à ossia l’individuazione degli elementi ke li hanno indotti in allarme) e l’accertamento della posizione del paziente (à magari qst ritiene di nn aver bisogno della terapia: va dunque verificato se l’individuo ha ragione e quello dei parenti è un semplice allarmismo -es salta alcuni pasti e pensano stia diventando anoressica- oppure se il paziente è spaventato e nega le proprie difficoltà. Vedere inoltre cosa ne pensa -magari ritiene ke nessuno possa aiutarlo e ha dunque un generale senso di sfiducia- e se ha motivo di evitare consulenti scelti dai familiari).
    • Il paziente è venuto su indicazione di un altro clinico: spesso un terapeuta può invitare il paziente da un altro collega x un consulto o x approfondire un dubbio diagnostico. Così facendo xo il paziente potrebbe sentirsi “scaricato” dall’altro clinico o sentirsi come un caso grave/incurabile x via della richiesta del parere al collega. Il paziente potrebbe inoltre voler ridurre al minimo l’interazione x tornare dal precedente clinico ke è visto come il suo preferito.

Consideriamo ora la conduzione del colloquio. Esistono 2 tipi di variabili:
VARIABILI RELATIVE AL PAZIENTE: viene considerata la gravità della situazione clinica, ossia se è una situazione acuta (à senza perdere tempo bisogna decidere se il paziente è un interlocutore attendibile oppure se è consigliabile consultare altre fonti -familiari o esperti-; va inoltre preso in considerazione se necessario l’intervento di un altro specialista, ad es uno psichiatra x trattamenti farmacologici, e quale sia la capacità di collaborazione del paziente) oppure se la situazione è cronica (à qnd il paziente ha alle spalle una lunga storia di malattia e risulta affetto da stanchezza, sfiducia e paura di nuove delusioni; egli deve dunque prepararsi ai tempi lunghi della terapia, focalizzandosi costantemente sulle ragioni del disagio)
VARIABILI RELATIVE AL CLINICO: può capitare ke il terapeuta abbia una forma di’ansia dovuta al timore di nn saper gestire e risolvere la relazione clinica; a causa di ciò potrebbe ricorrere a comportamenti difensivi quale l’adesione rigida ad una teoria o ad un certo modello (à x riuscire a porre così il paziente in una certa griglia interpretativa rigida), l’identificazione col proprio ruolo (à ke comporta chiusura e freddezza verso il soggetto), atteggiamenti eccessivamente amichevoli (à comporta l’esatto opposto del precedente), iperattività (à riguardo a domande, commenti: in tal modo si sovrasta il paziente con la propria ansia), ipoattività (à porta ad assumere un atteggiamento passivo, ke innervosisce il paziente ke nn si sente valutato o aiutato), disattenzione (à ossia degli effetti dei propri atteggiamenti sul paziente) o fretta di giungere ad una conclusione diagnostica (à si tendono a selezionare, a causa di una sovra valutazione solo quegli aspetti ke confermano l’ipotesi diagnostica).
Passiamo ora alla Strutturazione. Il colloquio clinico può essere svolto tramite domande aperte o chiuse, ma ognuna delle 2 domande avrà dei pro e contro a seconda dei diversi aspetti:

  • Naturalezza:
    Aperte à vantano una maggiore naturalezza
    Chiuse à hanno una bassa naturalezza
  • Attendibilità:
    Aperte à hanno una bassa attendibilità, dal momento ke le risposte nn sono standardizzabili
    Chiuse à hanno un’alta attendibilità, poiché le risposte sono standardizzabili
  • Precisione:
    Aperte à hanno una bassa precisione, xke l’obiettivo della domanda è vago
    Chiuse à hanno un’alta precisione dal momento ke l’obiettivo della domanda è ben definito
  • Tempo:
    Aperte à richiede molto tempo, a causa dell’elaborazione dettagliata
    Chiuse à richiedono un lasso di tempo minore, in quanto le risposte sono preordinate
  • Ausilio x la diagnosi:
    Aperte à è modesto il supporto ke si ha, poiché è il paziente a scegliere l’argomento
    Chiuse à è cospicuo poiché è il clinico a scegliere l’argomento
  • Accettazione da parte del paziente:
    Aperte e Chiuseà dipende dal tipo di paziente poiché alcuni preferiscono esprimersi liberamente (detestano essere rinchiusi in uno schema preordinato), mentre altri si sentono insicuri se le domande nn sono ben definite. X es se si fanno domande aperte ad un paziente con tratti ossessivi è svantaggioso xke sommergerebbe il terapeuta con particolari inutili; se si fanno domande chiuse ad un paziente con tratti persecutivi, si avranno spesso esiti controproducenti. Se invece le persone sono ansiose o poco convinte, è utile porre all’inizio qualche domanda chiusa x rompere il ghiaccio, x poi lasciare così posto alle domande aperte (a volte può rivelarsi utile suggerire al paziente di mantenere la risposta in un ambito di scelte multiple già indicate: x es “lei nn trova una fidanzata xke pretende troppo, xke ne conosce poche o xke nessuna piace a sua madre?”; ciò può avere effetti rassicuranti e, coi pazienti dei quali si intuisce un corso di pensieri scarsamente organizzato, fornire una traccia può rivelarsi utile à lo svantaggio di qst xo è ke il paziente nn comunicherà probabilmente altre possibilità ke possono essere x lui significative).

Passiamo ora alle varie tecniche utilizzabili nel colloquio clinico, x permettere così una conduzione ottimale di esso:

  • Tecniche di facilitazione: esse hanno lo scopo di incrementare e di incoraggiare la comunicazione in vari modi. Esiste l’incoraggiamento (= continui pure, interessante), le risposte di riflesso (= ossia riaffermando la frase del paziente à dunque, lei dice ke..), la sintesi (= possiamo riassumere ciò ke lei ha detto finora..), riportare il paziente ad un certo argomento (= mi sembra utile riprendere ciò ke diceva poco fa..), favorire il passaggio da un argomento a un altro (= perfetto. Ora paliamo di..), comunicare al paziente di nn aver capito (= mi faccia capire meglio..).
  • Tecniche di Chiarificazione: hanno lo scopo di approfondire e disambiguare la comunicazione tramite
    • Chiarificazione: ossia un’esplorazione degli argomenti più confusi o contradditori, in cui solitamente il paziente nn oppone resistenza
    • Specificazione: ossia una serie di domande chiuse ke vengono rivolte qnd il paziente risponde in modo ristretto (a monosillabi): es cosa mangi?di tutto/ mangi prima le cose ke trovi in casa oppure le vai a comprare? Prima mangio in casa e poi vado a comprare / con ke soldi paghi? Coi miei..
    • Generalizzazione: è l’opposto della specificazione, poiché viene usato con pazienti prolissi ke si perdono in dettagli à è bene fare quindi domande sulla generalità del fenomeno
    • Verifica dei Sintomi: serve a chiarire quali sono i sintomi del disagio. Il paziente deve pertanto rispondere si o no ad un elenco dei sintomi
    • Mettere in relazione Reciproca: ossia indagare con domande di approfondimento le relazioni logiche fra eventi ke sembrano poco legati tra loro
    • Parafrasi ed Approfondimento: ripetere ed approfondire sono dei metodi molto utili x chiarire i temi salienti
  • Tecniche di modificazione del contenuto della comunicazione: ne esistono di 4 tipi
    • Interpretazione: è la tecnica ke collega il materiale conscio con funzioni/motivazioni inconsce attuali, presunte o ipotizzate. Spesso nn è utile (se nn dannoso) fornire troppe interpretazioni durante il colloquio, poiché il paziente può essere disturbato da argomenti astratti o ke prima ignorava. Inoltre, l’interpretazione va fornita solo se si suppone ke il rapporto clinico nn sia sporadico, xke prima ke il paziente elabori i temi dell’interpretazione è necessario diverso tempo.
    • Ristrutturazione Cognitiva: si ha qnd il clinico riformula opinioni, sensazioni e atteggiamenti del paziente in un nuovo modo, così da poter mettere il soggetto di fronte ad una nuova prospettiva, in cui è possibile notare gli aspetti irrazionali del comportamento
    • Confrontazione: tende a mostrare al paziente certi suoi meccanismi di difesa inconsci, facendo attenzione a nn suscitare resistenza o chiusura, xke ci si sente giudicati
    • Silenzio: utile x capire meglio le idee del paziente e x lasciargli spazio. Esso nn deve xo essere colmo di imbarazzo.

Vediamo infine Vantaggi e Svantaggi dello studio dei casi singoli:

  • Svantaggi: gli svantaggi delle ricerche sui casi singoli sono simili a quelli delle ricerche basate sull’osservazione e sul colloquio: il ricercatore può infatti omettere qualcosa oppure essere inconsapevolmente selettivo; inoltre, essendo l’indagine basata su una sola persona o caso nn è detto ke i risultati si possano estendere alla popolazione intera
  • Vantaggi: i vantaggi delle ricerche dei casi singoli sono almeno 2:
    • Si possono analizzare casi unici, difficili da riprodurre x motivi etici (come ad es lesioni cerebrali localizzate, esperienze traumatiche..) o x motivi contingenti (ad es x specifiche facoltà cognitive anomale, x idiot savants à ossia capacità fuori dalla norma presenti in persone anormali)
    • Si possono fare confronti tra approcci clinici. Vi è infatti possibilità di confronto di teorie / tecniche terapeutiche provenienti da differenti approcci clinici allo stesso caso (es psicodinamico, comportamentale, umanistico..).
  1. Ricerche Correlazionali: le ricerche correlazionali permettono di individuare se 2 variabili sono correlate, ossia se ce una relazione di qualche tipo (diretta o inversa), e consentono di fare previsioni sull’andamento di una variabile al mutare dell’altra.
    Si noti ke nn è il calcolare la correlazione ciò ke rende una ricerca correlazionale, ma l’impossibilità di manipolare intenzionalmente le variabili (x motivi etici/contingenti).
    Nelle ricerche correlazionali, va posta una certa attenzione a 2 problemi:
    • Problema della Terza variabile: qst è visibile nelle relazioni indirette (es etnia =  A, istruzione = C e QI = B: la relazione è AàCàB, e nn AàB) nelle relazioni spurie (es A = n° pompieri, B = danni, C = dimensioni dell’incendio; la relazione sarà Cà A e B, e nn AàB) e nelle correlazioni illusorie (es A = indosso la maglia rossa; B: prendo 30; C: studio x l’esame. La relazione è CàB e nn AàB. Nota ke dalle correlazioni illusorie nasce la superstizione)
    • Direzionalità: bisogna prestare attenzione a chi causa cosa: infatti, anke se c’è correlazione e vi sono possibilità di causa-effetto, ci si domanda sempre quale sia la causa e quale l’effetto (es sedere al primo banco fa stare attenti o quelli attenti si siedono al primo banco?)

Nelle ricerche correlazionali ci si avvale spesso di test statistici. La più usata è sicuramente la correlazione di Pearson, la quale indica il legame ke unisce 2 variabili. In tale test si ha un coefficiente di correlazione ke indica la forza del rapporto tra la variabile X e la variabile Y (ossia se avviene una covariazione o indifferenza) e la direzione del legame (se è positiva o negativa). Nota inoltre ke la correlazione può essere anke nn lineare, ma curvilinea.
La correlazione di Pearson (r) assume valori ke vanno da -1 a +1 (-1 < r > +1) ed essa è definita come:
r = (somma dei prodotti dei punteggi standardizzati di X ed Y)/ numero di soggetti o di osservazioni
In particolare, se r è vicina a +1 si ha una correlazione positiva tra X ed Y; se r è vicina allo 0 nn si ha correlazione tra X ed Y (oppure è debole); se invece r è vicina a -1 si ha una correlazione negativa tra X ed Y. Nota ke tanto più r sarà vicina a +1/0/-1, tanto più la correlazione sarà fortemente positiva/debole-nulla /fortemente negativa.
Inoltre, x effettuare la previsione (o la stima) di Y dato X, si utilizza l’equazione di regressione: essa, nelle relazioni lineari, è la migliore tra tutte le infinite rette ke possono passare attraverso i punti-intersezione del diagramma di dispersione (ossia è la retta interpolante, ke passa mediamente più vicina a tutti i punti) à se  retta di regressione  sarà inclinata così / si avrà relazione positiva; se è inclinata così \ avrà relazione negativa (in caso di relazione nulla invece nn sarà tracciabile).
L’equazione della retta di regressione è Y’ = a + bX, dove a è l’Intercetta (ossia la distanza tra l’origine degli assi e il punto in cui la retta taglia l’asse delle ordinate -y-) e b è il coefficiente di regressione ke indica l’inclinazione della retta, cioè l’angolo ke la retta forma con l’asse delle ascisse, esprimendo la quantità di incremento se positivo o di decremento se negativo ke si verifica in Y x ogni unita di incremento/decremento in X.

  1. Studi Longitudinali e Trasversali: entrambi i tipi di studio hanno lo scopo di analizzare i cambiamenti di una o più variabili nel tempo e, pertanto, sono spesso utilizzati nell’ambito della psicologia dello sviluppo. Inoltre, sebbene siano utilizzabili anke in veri esperimenti, la loro applicazione maggiore è stata in ricerche descrittive. Vediamoli ora singolarmente:
    • Studi Longitudinali: si osservano i cambiamenti nel tempo di un solo gruppo sperimentale, ke viene testato ad intervalli regolari. L’ampiezza dell’intervallo dipende dalla variabile studiata (ma in età evolutiva è solitamente ridotta, poiché i cambiamenti sono rapidi).
      Gli svantaggi più grandi sono ke richiedono grandi investimenti di tempo e risorse e la mortalità dei soggetti (à alcuni possono infatti abbandonare la ricerca e chi rimane potrebbe sporcare la ricerca alzando la media o dando dati nn rappresentativi, essendo più motivato)
    • Studi Trasversali (o cross-selectional): si individuano dei campioni rappresentativi di soggetti divisi x età, e si rivelano i cambiamenti della variabile mediante uno studio contemporaneo (ossia diversi soggetti di diverse età x avere subito i dati). Anke in tal caso, le fasce di età e l’intervallo dipendono dalla natura della variabile studiata.
      Tra i problemi maggiori abbiamo l’effetto Coorte, ossia qnd i cambiamenti nella variabile dipendente nn sono legati alla variabile indipendente, ma ad altri fattori dovuti alle esperienze di vita di quel gruppo (es secondo gli studi trasversali l’intelligenza declina a 50 anni, mentre x quelli longitudinali declina a 70 à qst x via dell’effetto delle nuove tecnologie sul QI; inoltre se x es si testa l’intelligenza mediante i videogiochi gli anziani saranno svantaggiati rispetto a test ke prevedono uso di carta e matita)
    • Studi Sequenziali: è una forma mista dei 2 disegni precedenti: si individuano campioni rappresentativi di soggetti divisi x età e si rilevano i cambiamenti della variabile mediante uno studio contemporaneo. Infine, se ne osservano i cambiamenti ad intervalli di tempo regolari. Le analisi confronteranno così i punteggi dei vari soggetti di gruppi diversi alla stessa età.
  1. Inchieste o Survey: esso è un modo di rilevare info ke si basa su un insieme ordinato e standardizzato di domande, rivolto ad un campione rappresentativo della popolazione (in un arco temporale nn troppo esteso) allo scopo di studiare le relazioni esistenti tra le variabili.
    In genere la ricerca si deve completare in breve tempo, affinché nn avvengano i fattori storici a modificare i dati raccolti prima e dopo un certo evento. Esistono dunque 2 tipi di studi:
    - Gli studi di Panel sono gli studi fatti su un ampio arco di tempo (l’inchiesta è somministrata più volte al campione).
    - Gli studi di Trend sono studi fatti a lungo termine x rilevare tendenze su uno stesso tema.
  2. Meta-Analisi:

 

fonte: http://appunti.buzzionline.eu/downloads/metodologia0708.doc
link sito web : http://appunti.buzzionline.eu/
autore del testo : Tommy

 

STORIA.

Nell’ambito epistemologico, cioè in quella branca della gnoseologia che si occupa dei problemi, dei limiti e delle possibilità della conoscenza scientifica, vi è sempre stato grande dibattito attorno al concetto stesso di scienza e di verità che essa poteva garantire. Il concetto di scienza, da un punto di vista storico, viene associato ai tre grandi concetti di dimostrazione, descrizione e autocorreggibilità.
La concezione dimostrativa di scienza risale ai tempi della Grecia classica e sosteneva una concezione di scienza come garanzia di verità in quanto dimostrava le proprie affermazioni, connettendole in un sistema unitario nel quale ciascuna di esse era necessaria. Tuttavia, tale concezione di scienza ha fatto il suo tempo e con la rivoluzione scientifica, e con la messa di una metodologia propriamente scientifica che viene considerata l’emblema stesso della scienza, la filosofia e la scienza si separando e, a partire da Bacone, Newton e altri filosofi illuministi nasce e si sviluppa la concezione descrittiva di scienza (privilegiante il metodo scientifico) che consiste, fondamentalmente, in un’interpretazione della natura, cioè nell’osservazione e nell’induzione a partire da essa, nella quale si passa dal particolare alla legge che lo regola. Quindi, verifica l’universale, cioè che mi interessa sapere a partire dal particolare che posso verificare. La scienza usa, infatti, un metodo induttivo ( che contiene un momento deduttivo) attraverso il quale si risale dal particolare all’universale (che è il mio fine), facendo quindi un’inferenza cioè un ragionamento per il quale a partire da dati conosciuti si arriva a dati ignoti.
Dopo la rivoluzione culturale del Romanticismo si assiste a un ritorno della scienza e alle idee illuministe dando così vita alla corrente del Positivismo, secondo il quale tutti i fatti testimoniatoci dall’esperienza sono oggettivi e sono regolati da leggi scientifiche interpretando, così, la scienza come l’unico metodo valido per giungere a conoscenze certe e oggettive e come strumento di progresso e di miglioramento per la qualità della vita. Il Positivismo, successivamente, si sviluppò e diede origine al Positivismo logico, scuola filosofica dei primi decenni del 1900 la quale, forte della sua intrinseca inclinazione positivista, afferma che il sapere scientifico si basa su osservazioni di natura oggettiva da cui ricavarne della regolarità, a partire dalle quali, attraverso un metodo induttivo, si costruiscono leggi, dipingendo così la scienza come un sapere certo e inequivocabile, preservato da ogni forma di influenza storica, sociale e politica.
L’empirismo logico, pur avendo successo anche all’interno della psicologia, in particolare modo nel comportamentismo dove si affermava che una teoria scientifica è la descrizione dei dati sensoriali raccolti nei progetti di osservazione, incontrò, tuttavia, parecchie critiche verso la fine degli anni Cinquanta indirizzate, principalmente, all’assunto di base secondo cui l’esperienza  è alla base di ogni conoscenza, mettendo in luce, inoltre, il fatto che non esiste un’osservazione pura, priva di presupposti teorici, aspettative e influenze.
Oltre al positivismo logico, la concezione descrittiva di scienza, viene sostenuta dall’epistemologia genetica, il cui padre fondatore fu Piaget, cioè da quell’ambito di riflessione filosofica sui fondamenti della scienza in prospettiva evolutiva che si propone di ricostruire lo sviluppo della scienza in parallelo allo sviluppo del bambino. Secondo Piaget, infatti, problemi relativi ai fondamenti dei concetti scientifici, possono essere studiati per come si formano nel corso dello sviluppo genetico, che egli considerava parallelo allo sviluppo del bambino.
Infine, l’ultima concezione di scienza, e anche la più recente, afferma che la garanzia della validità della scienza è la sua autocorreggibilità, abbandonando, quindi l’equazione scienza uguale garanzia e verità assoluta. Il primo filone è il razionalismo critico di Popper, secondo il quale una teoria non è mai assolutamente provata e dimostrata empiricamente. Può essere solo confutata. Da questo assunto di base, comincia la ricerca di Popper nel tentativo di trovare un criterio di demarcazione atto a distinguere le teorie scientifiche da quelle non scientifiche che identifica nel principio di falsificabilità. Secondo tale criterio una teoria è scientifica nella misura in cui può venire smentita, in linea di principio dall’esperienza, ossia se i suoi enunciati risultano in conflitto con le eventuali osservazioni. L’osservazione è, quindi, lo strumento di verifica delle ipotesi.
Il secondo filone è la teoria dei paradigmi dei Khun il quale sostiene che la scienza si fonda su paradigmi, cioè modelli di problemi e soluzioni (quali, ad esempio, in psicologia, il comportamentismo), soggetti alle influenze storico- sociali, che sono incommensurabili e che si alternano, nello sviluppo di una scienza, in maniera rivoluzionaria a partire da anomalie che contrastano il modello precedente. Ne deriva una concezione di scienze normali, cioè dogmatica e fondata su paradigmi in funzione dei quali i ricercatori lavorano, e il cui sviluppo è discontinuo, ateleologico, proprio perché non segue una trasformazione graduale e continua, ma rivoluzionaria.
Il terzo filone consiste nell’epistemologia irrazionale ed anarchica di Feyerabend che propone il modello del pluralismo teorico, secondo cui la scienza fa uso di una pluralità di standard, svincolati da tutti i paradigmi, che rappresentano non un ostacolo al progresso, ma piuttosto una crescita della conoscenza scientifica.
In psicologia, di recente si è sviluppata una teoria, detta realismo critico, che rifiuta un fondazionismo e la concezione che la conoscenza sia un fatto pure, ma che afferma, al contrario, che il mondo esiste indipendentemente dall’esperienza. La scienza può ricorrere a ciò che non è osservabile attraverso inferenze dell’esperienza osservabile e lo scienziato, proprio perché formula teorie costitutive del mondo conosciuto, ma non del mondo reale, deve essere fallibilista dal punto di vista epistemologico. Afferma, inoltre, che il mondo e la scienza sono stratificati, cioè formati da più ambiti e sfere di influenza, e costituito da un complesso di strutture, le quali sono l’esito di processi causali che hanno luogo sia allo stesso livello che a diversi livelli. Il realismo critico ha, quindi, avuto il merito di sottolineare, attraverso la sua concezione di scienza, intesa come insieme complesso e strutturato da diversi livelli interagenti tra di loro, l’impossibilità di applicare all’uomo lo schema positivista dal momento che è un oggetto di studio estremamente complesso che non risponde a leggi deterministiche e la necessità di elaborare nuovi e diversi tipi di approccio.

IL PROCESSO DI RICERCA
Il processo di ricerca, che si può classificare in ricerca di base quando ha lo scopo di aumentare le conoscenze teoriche su un dato argomento e in ricerca applicata quando nasce da problemi concreti, snoda in varie fasi, quali l’identificazione del problema di ricerca, la pianificazione del disegno sperimentale, la fase delle osservazioni, la fase dell’analisi dei dati, la fase dell’interpretazione dei dati e, infine, la fase della comunicazione dei risultati.
Per quanto riguarda la fase di identificazione del problema di ricerca(fondamentale perché, come sosteneva Popper, la ricerca parte dai problemi e non dalle osservazioni) essa può scaturire da interessi personali del ricercatore, da fatti personali, da serendipità (cioè, quando si fanno delle scoperte utili alle quali non si mirava), tentativi di risolvere problemi pratici, competizione, dall’influenza di altre teorie e risultati di altre ricerche all’interno del quale distinguiamo tra un’influenza euristica, cioè quando una teoria genera un interesse da cui prendono avvio studi e ricerche, e influenza sistematica, cioè quando le teorie o le ricerche fanno affermazioni esplicite.
A questo punto, stabilito il problema da cui si vuole partire, è necessario sollevare delle domande di ricerca, cioè dei quesiti maggiormente specifici che hanno lo scopo di focalizzare l’attenzione su determinati aspetti, da cui nasce un’ipotesi di ricerca, cioè un’ipotesi sulla relazione tra due variabili, le quali sono definite operazionalmente, che, successivamente, dà luogo a due ipotesi statistiche: un’ipotesi nulla, in cui si afferma l’assenza dell’effetto ipotizzato, e un’ipotesi alternativa, in cui si afferma la presenza dell’effetto ipotizzato.
Quindi, stabilito il problema e l’ipotesi che si intende verificare, si passa alla fase delle osservazioni. L’osservazione scientifica, caratterizzata dalla presenza di uno scopo specifico e di ipotesi che stanno alla base della decisione di adottare l’osservazione, è quella fase in cui si raccolgono i dati che verranno poi analizzati e interpretati al fine di verificare se, effettivamente, forniscono una risposta all’ipotesi di ricerca, e che sono frutto di una misurazione, cioè di un’associazione tra una categoria o un simbolo formale a oggetti, eventi, persone, in base a regole di corrispondenza. Ciò a cui si applica la misurazione si dice caso o soggetto e tale misurazione avviene su variabili sperimentali, cioè qualsiasi caratteristica fisiche o psichica del soggetto che può assumere valori diversi in un dato intervallo e la cui connessione costituisce l’ipotesi di ricerca da verificare. Le variabili si possono distinguere tra loro in base a diversi criteri:

  • Il primo criterio riguarda il livello di precisione di tali variabili durante il processo di misurazione e, in base a tale precisione, distinguiamo tra variabile continua ( di natura quantitativa) cioè quella variabile che, all’interno del proprio ambito di variazione, può assumere i valori di tutti i numeri reali, e variabile discreta (di natura quantitativa e qualitativa) cioè quella variabile che, all’interno del proprio ambito di variazione può assumere solo un numero finito di valori (non frazionari), come, ad esempio, il numero di figli o le risposte a una domanda su scala Likert.
  • Il secondo criterio si basa sul ruolo, giocato da tali variabili, all’interno dell’esperimento e, in base al quale, distinguiamo tra variabile indipendente, cioè quei fattori che si suppone possano causare variazioni su altre variabili e che si suddividono in variabili manipolate, cioè controllate e modificate attivamente dallo sperimentatore, e in variabili non manipolate che esistono in natura, e in variabili dipendenti, cioè quelle variazioni di determinati comportamenti che si suppone dipendano dalle modifiche della variabile indipendente.
  • Il terzo criterio riguarda il ruolo che le variabili possono avere nel confondere una relazione tra le due variabili e si distingue tra variabile di disturbo, cioè la variabile non controllata che covaria con la variabile indipendente ma è estranea ad essa (minacciando, così, l’esistenza del nesso causale e quindi la validità interna della ricerca), e variabile confusa, cioè quella variabile non controllata che covarla con la variabile indipendente ed è estranea ad essa o alla sua operazionalizzazione (minacciando, così, la validità della spiegazione e quindi la validità di costrutto della ricerca.
  • Il quarto criterio riguarda l’errore che si compie durante la misurazione e che le divide in variabili che inducono errori casuali e variabili che inducono errori sistematici.
  • Il quinto criterio è legato alla possibilità o impossibilità di osservare la variabile e si distingue, rispettivamente, in variabili manifeste e variabili latenti.

 

Ora, come abbiamo già detto, durante la fase di osservazione si raccolgono i dati attraverso una misurazione sulle variabili (che abbiamo precedentemente analizzato), che si tratta di una caratteristica che in un dato intervento può assumere diversi valori e tale ambito di variazione è costituito da livelli o modalità che è possibile misurare tramite scale di variazione. Grazie al contributo di Stevens esistono tutt’oggi quattro diverse scale di misura, basate sulle relazioni che intercorrono tra i livelli di variazione di una variabile, che determinano quattro categorie di variabili:

1) scala nominale o categoriale: quando i livelli di variazione di una variabile non possono essere ordinati e a cui non è possibile assegnare valori numerici o ordinali, ma piuttosto nomi o codici astratti (ad esempio, maschio/ femmina).
2) scala ordinale: si applica quando i livelli di variazione sono ordinati, ma a cui non è possibile attribuire un valore numerico che indichi l’intervallo (o i rapporti tra i livelli) è costante, ma piuttosto un valore ordinale (primo, secondo, terzo…)
Queste prime due scale (nominale e ordinale) di misurazione della relazione intercorrente tra i livelli di variazione si applicano a variabili qualitative dette anche di frequenza poiché viene prodotta una classificazione che, opportunamente elaborata, dà luogo a una frequenza (per esempio, le femmine sono dieci).
3) scala a intervalli equivalenti: si applica quando i livelli possono essere ordinati, numerati in modo tale che a ciascun livello corrisponda un numero attribuito arbitrariamente, per cui anche le zero che non indica l’assenza di tale caratteristica, e quando l’intervallo tra i livelli è costante. In psicologia un esempio possono essere i test d’atteggiamento o il q.i.
4) scala a rapporti equivalenti: si applica quando i livelli sono ordinati e costanti e quando lo zero indica l’assenza della qualità misurata. Ad esempio, il numero di figli è una variabile a rapporti equivalenti poiché lo zero indica l’assenza di figli.
Queste due scale ( a intervalli equivalenti e a rapporti equivalenti) si applicano a variabili quantitative con cui si ottiene un punteggio (ad esempio, Q.I= 100) che esprime l’intensità di un fenomeno.

A questo punto del processo di ricerca, dopo le osservazioni, la raccolta dei dati e la misurazione attraverso opportune scale delle variabili, si passa alla fase di analisi dei dati, in cui questi vengono analizzati mediante codifica numerica e mediante un ordinamento atto a permetterne l’elaborazione statistica (matrice di dati o tabella di contingenza). Dopo l’analisi statistica i dati vengono interpretati per verificare se i risultati ottenuti danno una risposta all’ipotesi di ricerca e se tale risposta contribuisce ad approfondire la conoscenza del problema e, infine, vengono comunicati.

VALIDITA’ DELLA RICERCA E CONTROLLO
Esaminate le varie fasi del processo di ricerca, uno dei problemi più grandi in campo metodologico consiste nel rendere valide tali ricerche ricerche, intendendo con il termine validità la solidità e l’attendibilità di una ricerca, ossia una vera corrispondenza tra il mondo reale e le conclusioni di una ricerca e, per renderle valide, poiché esistono minacce alla validità di un esperimento, diventa indispensabile attuare qualsiasi procedimento che le neutralizzi o le controlli, sia attraverso il controllo sperimentale che l’esperimento di controllo. Il controllo sperimentale indica le modalità di limitare o controllare le fonti di variabilità nella ricerca rendendo, così, possibile affermare che i cambiamenti nella variabile dipendente sono prodotti dalla variabile indipendente. L’esperimento di controllo, che si attua o attraverso un gruppo di controllo (disegno da gruppi) o attraverso una condizione di controllo (disegno entro i gruppi), entrambi ai quali non viene sottoposto nessun tipo di trattamento, permette di verificare l’efficacia della variabile indipendente e di affermare che una variabile dipendente è associata a una variabile indipendente e non ad altre variabili. Infatti, se i due gruppi differiscono solo per la variabile indipendente, allora ogni differenza può essere attribuita all’azione di quella variabile.
Esaminiamo i diversi tipi di validità di una ricerca, che la rendono corrispondente alla realtà, e il controllo necessario per neutralizzare le possibili minacce e per fare di una ricerca una buona ricerca.

 

VALIDITA’ INTERNA.

La validità interna di una ricerca (valutata alla luce dei tre fini principali della ricerca, cioè dimostrare empiricamente l’esistenza di fenomeni e relazioni, verificare relazioni causali, spiegare come e perché e sotto quali condizioni esiste tale relazione causale) si ha quando la relazione tra due variabili è causale, cioè quando si prova che le modifiche della variabile indipendente (manipolazione della VI) causano quelle della variabile dipendente ( variazioni della VD) e, per essere tale, la relazione deve possedere una determinata direzione, la quale dia la certezza che la manipolazione della variabile indipendente è causa dei cambiamenti di quella dipendente e non viceversa ( e che viene dedotta dalla sequenza temporale), e, soprattutto, richiede l’esclusione di fattori di confusione, cioè di quelle variabili di disturbo in grado di influenzare la relazione causale che consistono in:

  • Storia attuale. Ogni evento che, nel corso di un esperimento, produce un effetto che si sovrappone a quello della variabile indipendente. In questa categoria rientrano anche alcune variabili di disturbo prodotte dal setting e da alcuni aspetti del tempo (tra cui rientrano anche i processi di maturazione fisica e psichica del soggetto). Il laboratorio, infatti, ha il grande vantaggio di riuscire a tenere sotto controllo le variabili di confusione, mantenendo costanti le variabili non eliminabili. Tuttavia, provoca altra variabili di disturbo che consistono in variabili di disturbo, cioè indizi provenienti dall’ambiente in base ai quali il soggetto cerca di conoscere che cosa si cerca da lui. Emergono, quindi dei risultati dovuti alle credenze del soggetto. Per constatare se tale effetto è realmente presente durante l’esperimento si ricorre a interviste post- sperimentali, in cui si chiede al soggetto come ha percepito l’ambiente, e in giochi di ruolo, in cui si chiede di comportarsi e dire come pensano di doversi comportare in una data situazione. Per quanto riguarda, invece, le variabili di disturbo provocate dalla variabile tempo si è visto che un’influenza importante è giocata dall’ora in cui si esegue l’esperimento. Per controllare tali minacce, prodotte sia dal luogo dell’esperimento che dal tempo nonché da altri numerosi fattori esistono 3 metodi fondamentali:
    • Controllo della costanza. Si cerca di mantenere il più possibile costanti le condizioni per i soggetti e per il periodo sperimentale.
    • Randomizzazione delle situazioni sperimentali. Si cerca di distribuire casualmente tra i soggetti eventuali differenze dell’ambiente, tra cui, ad esempio, l’ora nel caso in cui i soggetti e le prove siano numerosi.
    • Unica sessione e stessa situazione.
    • Abbreviazione dell’intervallo di tempo tra le prove.

         

  • Effetto delle prove. In generale, possiamo dire che negli esperimenti in cui ogni soggetto è sottoposto a più prove è possibile che l’esecuzione delle prime prove influisce su quelle successive. Si distingue tra un effetto dell’ordine e un effetto della sequenza. Il primo è quell’effetto per cui il rendimento viene influenzato dalla posizione (all’interno di una sequenza di prove) della prova e non dalla prova stessa. È quindi dovuto all’ordine delle condizioni e non alla natura delle condizioni stesse e per controllarlo occorre bilanciare la presentazione delle prove. Il secondo è quell’effetto per cui il rendimento viene influenzato dalla natura della prova precedente, la quale lascia, appunto, un residuo che influenza la prova successiva ed è quindi dovuto all’interazione tra le prove disposte in una certa successione. Occorre quindi che ogni prova sia preceduta lo stesso numero di volte dalle altre prove.

Più precisamente, per controllare tali effetti è necessario controbilanciare le prove:

  • Controbilanciamento tra soggetti. Si creano tanti gruppi quante sono le possibili combinazioni di prove e a ogni gruppo di soggetti si somministra una combinazione di tali prove. Il controbilanciamento tra soggetti si divide in controbilanciamento completo, in cui si somministrano tutte le combinazioni di prove possibili, e il controbilanciamento incompleto, in cui si somministrano solo alcune delle possibili prove e ogni prova deve apparire lo stesso numero di volte in ogni posizione e deve sempre precedere un tipo di prova e seguirne un altro lo stesso numero di volte. Controbilanciando l’ordine delle prove si fa sì che l’effetto dell’ordine sia sempre lo stesso per ogni prova. Per questo si usa il quadrato latino, cioè una matrice che prevede l’occupazione di ogni prova di un singolo posto per ogni gruppo, il quale, tuttavia, non controlla l’effetto della sequenza. Per controllare tale effetto si ricorre al quadrato latino bilanciato, in cui ogni prova deve essere sempre preceduta ogni volta da una prova diversa. Infatti, se io faccio in modo che la prova B non sia seguita sempre dalla prova A, ma da ogni prova diversa, controllo gli effetti dovuti alla sequenza, quindi all’interazione tra le prove.
  • Controbilanciamento entro i soggetti. Si controbilanciano i soggetti e si sottopone ciascun soggetto a tutte le prove più volte in diverse combinazioni, in modo tale che ogni soggetto sia sottoposto a tutte le combinazioni.

 

  • Strumentazione. Essendo dipendente dal ricercatore, subisce una maggiore fluttuazione. Il problema della strumentazione e della sua validità nel rilevare un rapporto causale è collegato al problema della validità di costrutto.
  • Effetto della regressione statistica. Legge secondo la quale, nelle prove ripetute sugli stessi soggetti e sulla stessa variabile, i punteggi estremi tendono a regredire verso la media a causa di alcune variabili non correlate al test, quali motivazione, fatica, ecc. Tale effetto è una minaccia per la validità interna soprattutto negli esperimenti in cui i soggetti sono scelti sulla base di punteggi estremi.
  • Selezione. Il gruppo di controllo e il gruppo sperimentale devono essere il più equivalenti possibile, pena l’attribuzione di ogni differenza nel post-test al trattamento. Il problema della selezione dei soggetti è strettamente collegato, inoltre, al problema della validità esterna della ricerca in quanto una delle condizioni necessarie per affermare l’esistenza di una corretta selezione è la possibilità di generalizzare i risultati.
  • Mortalità
  • Effetti di disturbo causati dal soggetto. La prestazione, da parte dei soggetti, che si riscontra nel post-test  può essere influenzata da variabili diverse da quella prevista nel trattamento, variabili che possono dipendere da fattori esterni (quali il tempo, il settino, gli strumenti) e variabili prodotte, anche inconsciamente, dal soggetto stesso che possono consistere in:
  •  Conoscenze psicologiche. A tale problema si rimedia dando consegne che impediscano di fare inferenze e connessioni sulle proprie conoscenze e somministrando, successivamente alla prova, un questionario che sondi la competenza del soggetto nelle aree indagate.
  • Effetto diffusione. Consiste nella conoscenza, ottenuta tramite altri soggetti, della procedura e del contenuto della ricerca in questione, provocando così un adeguamento delle proprie risposte ai fini della ricerca o, all’opposto, un atteggiamento di rifiuto di collaborazione.
  • Conoscenze sulla procedura sperimentale. Tale conoscenza si ottiene attraverso supposizioni da parte del soggetto e, proprio per evitare che le conoscenze, da parte dei soggetti, sulla procedura e sul contenuto della ricerca influenzassero il rapporto causale tra variabile indipendente e variabile dipendente sono state messe a punto tre principali strategie:
    • Procedimento a singolo cieco. Consiste nel nascondere ai soggetti sia lo scopo della ricerca, sia la condizione in cui essi si trovano (vd. effetto placebo).
    • Tecnica dell’inganno. Consiste nel far credere ai soggetti che la situazione sperimentale sia diversa da quella che gli sperimentatori stanno studiando. Si nascondono, quindi, informazioni importanti sulla situazione sperimentale (esperimenti di Asch e Milgram). Tuttavia, i soggetti potrebbero accorgersi della sibillinità delle procedure sperimentali e potrebbero, quindi, maturare una sfiducia nello sperimentatore e nella ricerca stessa.
    • Drammatizzazione /preavviso. Si tratta di alternative all’inganno che, tuttavia, non possono sostituirlo. Con la drammatizzazione si costruisce una situazione fittizia (tanto per la variabile indipendente quanto per quella dipendente) durante la quale il soggetto deve comportarsi fingendo che la situazione sia reale. Tuttavia, tale metodo informa solamente su un comportamento possibile e non su un comportamento reale. Il preavviso consiste nel mettere al corrente i soggetti della situazione sperimentale e, in effetti, si nota una differenza tra soggetti preavvisati e soggetti ignari.
  • Effetti di disturbo causati dallo sperimentatore. Si tratta di aspettative del ricercatore (effetto attesa) che influiscono come variabili estranee nelle fasi di selezione del campione, fornire istruzioni al soggetto, raccolta dati, interpretazione risultati ( dove introduce ipotesi ad hoc per i risultati incongruenti). Le strategie per controllare tali effetti consistono in:

 

  • Automazione delle istruzioni. Poiché le istruzioni, attraverso la loro forma (scritta od orale) e il tono della voce, possono veicolare aspettative o giudizi circa la facilità (o difficoltà) del compito e circa le ipotesi che sono alla base, le istruzioni vengono automatizzate, cioè vengono comunicate in forma scritta o tramite registrazione e con l’aiuto del pc.
  • Uso di più osservatori e valutatori.
  • Procedimento a doppio cieco. Vengono usati dei collaboratori dello sperimentatore (confederati) che sono ignari delle ipotesi e della condizione in cui si trovano i soggetti, e che realizzano tutte le fasi della sperimentazione. In questo modo i collaboratori non possono trasmettere ai soggetti nessuna informazione, nemmeno involontariamente. Tale procedimento si usa, soprattutto, nel caso in cui siano presenti più osservatori che è bene che siano ignari, in modo tale che la possibile coincidenza delle loro codifiche possieda una maggiore garanzia, proprio perché non poggia sulla conoscenza dell’ipotesi che potrebbe esercitare un’influenza sulle codifiche stesse.
  • Interazioni tra tali variabili.

 

VALIDITA’ ESTERNA.

La validità esterna consiste nella possibilità di applicare i risultati a soggetti, tempi, luoghi diversi da quelli della ricerca e si suddivide in validità di popolazione, cioè la possibilità di generalizzare i dati dal campione alla popolazione, e in validità temporale secondo la quale, perché si possa parlare di validità esterna è necessario che i risultati rimangano stabili nel tempo e, per verificare la stabilità dei risultati della ricerca, si utilizza il follow-up, cioè un controllo eseguita a una certa distanza di tempo dopo la fine dell’esperimento.
Presupposto fondamentale perché esiste la validità esterna, e quindi la possibilità di generalizzare, è comunque, un’accurata selezione dei soggetti dalla popolazione e assegnazione di questi ai gruppi sperimentali. Distinguiamo, quindi, nella selezione, due fasi:

  • estrazione dei soggetti dalla popolazione. Dalla popolazione (popolazione bersaglio), cioè da tutti gli eventi di interesse per il ricercatore, si distingue una popolazione accessibile, cioè quella a cui il ricercatore può avvicinarsi e, da tale popolazione accessibile, si estrae un campione attraverso tre metodi:
    • campionamento casuale: si ha quando ogni elemento di un insieme, appartenenti a una popolazione, ha la stessa probabilità di essere scelto per formare il campione. Può essere sia con ripetizione o reinserimento (ogni elemento, dopo l’estrazione, viene inserito nell’insieme di origine, per cui è possibili riosservarlo) sia senza.
    • Campionamento casuale stratificato: si suddivide la popolazione in strati sulla base di una o più variabili critiche e, de essi, si estrae casualmente un campione.
    • Campionamento ad hoc: campionamento in cui i soggetti non sono scelti in modo casuale, ma sulla base della loro disponibilità e reperibilità, nonché del loro interesse. È indispensabile descrivere i soggetti obiettivamente in maniera tale da trovare, precisamente, i limiti entro i quali è possibile generalizzare i dati.
  • assegnazione dei soggetti (appartenenti al campione) ai gruppi o alle condizioni.
    • Assegnazione casuale: basandosi sulla teoria della probabilità, tale metodo risulta particolarmente vantaggioso in quanto si presume che, attraverso un’assegnazione casuale, le variabili che possono influire vengano distribuite equamente. Tramite la randomizzazione è, quindi, possibile controllare le minacce alla validità interna ed esterna e mantenere sotto controllo più variabili nello stesso tempo (anche quando esse sono sconosciute).
    • Pareggiamento: tale metodo si esegue quando il campione è esiguo e quando si sospetta l’esistenza di una variabile, correlata con la variabile dipendente, rispetto alla quale i soggetti differiscono. Sulla base di tale variabile si ordinano (per crescenza o decrescenza) i soggetti e, in base a tale ordine, si formano delle coppie. Adesso si assegnano, a caso, i membri di ciascuna coppia al gruppo sperimentale e a quello di controllo, oppure si assegna a ciascun gruppo, alternativamente, i membri di ciascuna coppia e, dopo aver applicato il trattamento, si esaminano le differenze tra i membri delle coppie che costituiscono i punteggi su cui si effettuano le analisi statistiche.
    • Metodo dei blocchi: tale metodo consiste nel formare i gruppi uniformandoli sulla base di una variabile. Quindi, si sceglie la variabile, la si misura nei soggetti e si suddividono i soggetti in base alla media e alla deviazione standard. Formando i blocchi per somiglianza rispetto a una certa variabile non esiste sovrapposizione tra i gruppi e, proprio perché la variabile di disturbo è costante e separata, aumenta la significatività dell’esperimento.

 

Una volta stabiliti quali sono i criteri da rispettare per ottenere una buona selezione dei soggetti, esaminiamo il problema maggiore che si incontra durante il campionamento e che mina la validità interna. In psicologia, infatti, si ricorre a due categorie di soggetti sperimentali circa i quali ci si interroga riguardo la validità esterna.

      • Studenti di psicologia. Costituiscono il subjcet pool di molti dipartimenti di psicologia, ma molti ricercatori hanno sostenuto che essi non sono rappresentativi della popolazione e che, quindi, i risultati riscontrati su essi non sono generalizzabili. Infatti, presentano alcune caratteristiche particolari quali una maggior cristallizzazione degli atteggiamenti, un concetto di sé poco definito, maggiori abilità cognitive, accondiscendenza all’autorità. Tuttavia, alcuni fecero notare che non tutte le ricerche condotte con gli studenti sono prive di validità esterna (ad esempio, quelle sulla percezione) e che, comunque, l’uso di tale campione non è errato quando la ricerca è condotta rispettando le regole di metodologia. Inoltre, si è sottolineato che la validità esterna non è in funzione della popolazione campionata, ma dell’interazione tra caratteristiche dei soggetti e determinati comportamenti per cui questo problema riguarda anche i non studenti.
      • Volontari. Si definisce volontario colui che non rifiuta di dare la sua partecipazione alla ricerca. Essi possiedono particolari caratteristiche, come una grande disponibilità che si traduce in una desiderabilità sociale, la quale li spinge a condividere gli obiettivi del ricercatore. Circa il problema della generalizzazione, tuttavia, si sostiene che tale quesito non esiste in quanto gli esperimenti utilizzano, per questioni di tempo, piccoli gruppi e prevedono la verifica della validità esterna (e quindi la generalizzazione) in un secondo momento per cui la mancanza di rappresentatività dei soggetti viene comunque tollerata. Inoltre, in alcune ricerche su temi basilari l’uso di volontari ha un influsso minore di quello che avrebbe se si studiassero variabili più complesse e più influenzabili.

Tuttavia, proprio perché tali effetti sono possibili, il ricercatore deve cercare di controllare tali effetti usando misure non intrusive e tecniche di osservazione naturalistica e valutando empiricamente l’influenza dei volontari attraverso un’analisi dei dati che sia separata sia per categorie che per soggetti.

VALIDITA’ STATISTICA

La validità statistica permette, attraverso il ricorso al calcolo delle probabilità e all’inferenza statistica, di verificare se il rapporto tra le variabili è di tipo causale o casuale, intendendo per caso quella molteplicità infinita di fattori, non analizzabili singolarmente, la cui influenza sui risultati può essere valutata mediante i metodi statistici.
Per raggiungere la validità statistica si formulano ipotesi statistiche, cioè affermazioni relative alle distribuzioni di probabilità delle variabili e il test di un’ipotesi statistica si svolge in quattro fasi:

  1. si formula un’hp nulla e un’hp alternativa. Si parla di hp alternativa bidirezionale nel caso in cui il ricercatore abbia un fine esplorativo, aspettandosi semplicemente delle differenze tra le medie, e di hp alternativa monodirezionale nel caso in cui ci si aspetti che una media sia maggiore o minore delle altre
  2. a questo punto si formulano delle supposizioni ausiliarie che consentono di dedurre una grandezza d’esame e la rispettiva distribuzione delle probabilità.
  3. si ricavano dei campioni casuali e li si sottopone al pre-test, al trattamento e al post-test da cui si calcola la grandezza d’esame.
  4. si definisce una zona di rifiuto cioè un campo di valori possibili della grandezza d’esame e un livello di significatività, detto α; se i valori della grandezza d’esame superano α si ha un valore significativo e si accetta l’ipotesi alternativa, se i valori sono inferiori al valore critico si dirà che il risultato non è significativo.

Tuttavia, rifiutare l’ipotesi nulla non implica che i dati rientrino nella zona di rifiuto e quindi se si rifiuta l’ipotesi nulla quando essa è vera nella popolazione si parla di errore di primo tipo. Tale errore può derivare dall’affermare l’esistenza di una covariazione tra le variabili che, in realtà, non esiste e, più precisamente, può derivare dal fenomeno del fishing in cui si prendono in esame tutte le possibili combinazioni di variabili, fino a che non emerge un risultato significativo, ottenendo così una correlazione significativa solo per caso.
Si ha un errore di secondo tipo quando si accetta l’ipotesi nulla ed essa è falsa nella popolazione e le cause di ciò risiedono in una bassa potenza statistica (campione piccolo e livello di α basso) e in una violazione degli assunti che stanno alla base dei test statistici.

 

VALIDITA’ DI COSTRUTTO

La validità di costrutto è un concetto ampio e complesso che prevede diversi aspetti circa la misurazione e che poggia sul concetto, fondamentale, di attendibilità di uno strumento di misura.
Si ha validità di costrutto quando le misurazioni effettuate corrispondono a ciò che si voleva realmente misurare. Viene, infatti, definita come il grado in cui uno strumento misura ciò che intende misurare. Infatti, dal momento che il costrutto è un concetto astratto che indica un complesso organizzato della vita psichica che non è possibile osservare in maniera diretta, esso viene inferito dal comportamento; più precisamente un costrutto viene inferito da indicatori empirici osservabili, definiti riflettivi quando sono una conseguenza del costrutto e formativi quando ne sono la causa, mediante un processo definito operazionismo, secondo il quale si fa corrispondere un indicatore osservabile a una nozione latente, legando così il livello di costrutto (astratto) al livello misurabile (empirico). Oltre alla divisione in indicatori formativi e riflettivi, si distingue tra indicatori semplici, cioè quando un indicatore, insieme ad altri indicatori, concorre a definire direttamente il costrutto, e dimensioni, cioè indicatori più complessi che possono essere organizzati gerarchicamente; le dimensioni sono, quindi, aspetti psicologici organizzati non osservabili che rappresentano ognuno una parte del costrutto e che si collocano gerarchicamente tra i costrutti e gli indicatori.
Ora, alla base del concetto di validità troviamo, come presupposto fondamentale, il concetto di attendibilità: una misura sarà valida solamente se sarà attendibile.
L’attendibilità consiste nel grado di accordo tra misurazioni indipendenti dello stesso costrutto (assicura, cioè, che le misure usate siano coerenti tra di loro) e tale concetto è composto da altri tre concetti fondamentali:

  • Accuratezza. È il grado di correlazione tra il costrutto misurato e la realtà.
  • Stabilità. È il grado di correlazione tra misurazioni, avvenute in tempi diversi, dello stesso costrutto.
  • Precisione. È la coerenza tra manifestazioni apparentemente diverse di uno stesso costrutto all’interno dello stesso strumento di misura. Uno strumento è preciso se due indicatori dello stesso costrutto danno lo stesso risultato, con lo stesso soggetto.

A volte, si possono ottenere delle misure in accurate ma, al tempo stesso, precise. Si tratta di misure che danno lo stesso risultato (precisione) anche se esso è falso.
Secondo la teoria classica dell’attendibilità, il punteggio osservato è prodotto dalla somma tra il punteggio vero e l’errore casuale (cioè tutti quei fattori casuali che confondono la misurazione di un qualunque fenomeno e che ha media zero). L’attendibilità è, quindi, il rapporto tra la varianza vera e la varianza osservata e tale concetto conta diverse applicazioni a seconda dei casi specifici:

  • Test-retest: testa i soggetti in momenti differenti con lo stesso strumento al fine di misurare la stabilità nel tempo delle risposte dei soggetti.
  • Forme parallele o equivalenti: testa i soggetti nello stesso momento con due forme diverse dello stesso strumento che misurano lo stesso contenuto.
  • Consistenza interna: testa i soggetti nello stesso momento con molti item e viene misurato attraverso l’α di Cronbach.
  • Accordo tra giudici: diversi osservatori codificano o valutano la stessa cosa nella stessa situazione in momenti simili e viene misurato attraverso il K di Cohen.

Possiamo quindi dire che, il prerequisito fondamentale che uno strumento di misura deve soddisfare in maniera tale da evitare errori (e, quindi, l’invalidamento stesso della ricerca) consiste nell’attendibilità. Una volta stabilito, attraverso diverse applicazioni, che tale strumento è attendibile, cioè che produce misurazione coerenti tra di loro, esso sarà anche valido, soddisfacendo, quindi, la validità di costrutto. La validità di costrutto di una misura viene considerata come validità totale di uno strumento che, tuttavia, è possibile distinguere in diversi aspetti. Uno strumento è valido quando, una volta stabilita l’attendibilità, possiede:

  • Validità di contenuto. È il grado in cui gli item, che fanno parte dello strumento, costituiscono un campione rappresentativo dell’universo di comportamenti, relativi al costrutto, che si vuole misurare. Ci si chide, quindi, se gli item sono esaustivi di tutto il costrutto che ci interessa. Tale validità di contenuto è essenzialmente valutativa, nel senso che compito del ricercatore è soppesare la presunta rappresentatività di ogni item rispetto alla proprietà che viene misurata. È per questa ragione che spesso si parla di validità di facciata, cioè il grado in cui gli item sembrano misurare il costrutto che si vuole sondare. Possiamo quindi dire che, la validità di contenuto di uno strumento viene misurata attraverso la validità di facciata e che rientra all’interno del concetto più generale di validità di costrutto di uno strumento.
  • Validità di criterio. Consiste nel grado di corrispondenza tra la misura e una variabile esterna, diversa dal costrutto originario che si assume come criterio di riferimento. Si parla di validità concorrente quando la misura e il criterio vengono misurate contemporaneamente, di validità predittiva nel caso in cui la misura venga eseguita prima del criterio.

Come ogni tipo di validità, anche la validità di costrutto, la quale serve a indicare che il risultato ottenuto per mezzo di un indicatore corrisponde alla nozione latente, può andare incontro a minacce provenienti da un’insufficiente definizione teorica dei costrutti, aspetto, questo, fondamentale perché una corretta identificazione degli aspetti più importanti salvaguarda la coerenza tra definizioni teoriche e operazioni di manipolazione delle variabili, oppure dovute a un’inadeguata e insufficiente operazionalizzazione dei costrutti. In conclusione, la validità di costrutto si configura come un aspetto della validità atto a garantire che le misurazioni effettuate corrispondano a ciò che si voleva misurare e richiede, come presupposto fondamentale ai fini della sua stessa esistenza, il possesso di attendibilità da parte dello strumento di misura.

VALIDITA’ ECOLOGICA

La validità ecologica consiste nella generalizzabilità dei risultati a contesti della vita quotidiana, dimostrando così che le condizioni in cui è stata verificata una relazione sono le condizioni tipiche in cui si trova normalmente la popolazione. Da un punto di vista storico, sono stati formulati diversi concetti di validità ecologica. Per Brunswik l’artificialità degli esperimenti condotti in laboratorio produceva dati poco rappresentativi della vita reale, focalizzandosi così sugli aspetti del mondo fisico e sociale che influenzano lo spazio di vita (cioè come la persona vive l’ambiente) e ritenendo, quindi, tutti gli artefatti del laboratorio una minaccia alla validità ecologica. Per Bronfenbrenner, invece, riprendendo il pensiero di Lewin, secondo il quale non ha importanza la situazione reale concreta, ma la percezione soggettiva del soggetto sperimentale verso il compito e verso l’ambiente, afferma che la validità ecologica è garantita non tanto dall’ambiente quotidiano e naturale, quanto piuttosto dalla conoscenza di quello che il soggetto percepisce e vive nell’esperienza, per cui è importante includere, nel disegno sperimentale, la variabile artificiosità della situazione.

 

Fonte: http://appunti.buzzionline.eu/downloads/metodologia0405.doc
Autore del testo : Clotilde

 

Metodologia della ricerca psicologica

 

 

Visita la nostra pagina principale

 

Metodologia della ricerca psicologica

 

Termini d' uso e privacy

 

 

 

 

Metodologia della ricerca psicologica