T1 - Herbert Blumer, La dimensione empirica dell’approccio interazionista

PAROLA D’AUTORE

|⇒ T1  Herbert Blumer

La dimensione empirica dell’approccio interazionista

Il testo qui riportato è estratto dal saggio La metodologia dell’interazionismo simbolicoscritto da Herbert Blumer nel 1969. Blumer | ▶ UNITÀ 4, p. 152 | è stato tra i fondatori e gli esponenti più importanti dell’interazionismo simbolico e in questo testo riflette su quelli che sono i presupposti e le implicazioni di tale approccio per lo studio della realtà sociale da un punto di vista empirico. Blumer fa riferimento alle due grandi tradizioni filosofiche del realismo e dell’idealismo per spiegare come l’approccio interazionista si differenzi da entrambe e mostrare come ciò che lo distingue sia proprio la sua dimensione empirica.

La “realtà” della scienza empirica esiste solo nel mondo empirico, può essere cercata e verificata solo in questo contesto.
Affinché questa banale, ma pure indispensabile, affermazione non sia fraintesa devo aggiungere poche parole sulle posizioni tradizionali dell’idealismo e del realismo, dal momento che queste posizioni filosofiche influenzano profondamente la ricerca scientifica nell’attuale scienza sociale e psicologica.
La posizione tradizionale dell’idealismo è che il “mondo della realtà” esiste solo nell’esperienza umana e che si manifesta solo nella forma nella quale gli esseri umani lo “vedono”. Ritengo incontestabile questa posizione. […] Per indicare qualcosa gli esseri umani devono vederla dalla loro prospettiva, rappresentarla come appare loro. In questo senso non c’è niente di sbagliato nell’affermazione che il mondo empirico esiste sempre nella forma delle rappresentazioni umane e delle concezioni che se ne hanno. Questo, a differenza della conclusione di molti, non sposta comunque la “realtà” dal mondo empirico al regno dell’immaginazione e della progettazione. Si sbaglia se si pensa che dal momento che il mondo empirico può esistere per gli esseri umani solo in termini di sua immagine e concezioni, allora la realtà deve essere cercata nelle immagini, nelle concezioni autonome di un mondo empirico. Tale posizione è insostenibile e renderebbe impossibile la scienza empirica. La posizione è insostenibile per il fatto che il mondo empirico può “rispondere” alle nostre rappresentazioni o alle nostre asserzioni su di esso – rispondere nel senso di sfidare e resistere o di non corrispondere alle immagini o concezioni che ne abbiamo. Questa resistenza assegna al mondo empirico un carattere ostinato, che è il segno della realtà. […]
Il riconoscimento che il mondo empirico ha un carattere duro, con il quale rapportarsi, giustifica ampiamente l’insistenza realistica che esso abbia carattere autentico. È comunque necessario sfuggire a due concezioni che hanno accompagnato il realismo tradizionale, indebolendone seriamente la fecondità. Una di queste è che il carattere duro, o la realtà, del mondo empirico, è fisso e immutabile all’interno di qualche forma definitiva, la cui scoperta è oggetto della scienza empirica. […]
Il rischio di credere che la realtà del mondo empirico esista in una forma fissata perpetuamente provoca la conseguenza di una naturale disposizione ad ipotizzarne la conoscenza come determinata una volta per tutte. Tale disposizione, come mostra la storia, può costituire un blocco formidabile rispetto a nuove ricerche e nuove scoperte.
La seconda concezione sterile è che la realtà del mondo empirico deve essere vista e considerata nei termini di risultati della scienza fisica avanzata - concezione che ha avuto effetti particolarmente negativi sulla scienza sociale e psicologica. Non c’è nessuna garanzia per questa concezione. Il carattere duro del mondo empirico è quello individuato attraverso uno studio attento e onesto.

Rispondi

1. Perché, secondo Blumer, la realtà esiste sempre e comunque nelle rappresentazioni o nelle concezioni che le persone hanno di essa?
2. A che cosa si riferisce l’autore quando parla del “carattere ostinato” del mondo empirico?
3. Secondo te, perché credere che la realtà esista in una forma fissa può costituire un ostacolo rispetto a nuove scoperte? Sei d’accordo?

 >> pagina 278 

|⇒ T2  Piergiorgio Corbetta

Il “caso” Roosevelt nel campionamento nelle scienze sociali

Nel brano a seguire, il sociologo Piergiorgio Corbetta (n. 1941) richiama la storia che accompagnò la nascita della tecnica del campionamento nelle scienze sociali, mettendo in evidenza alcune delle ingenuità che vennero compiute dai primi sondaggi d’opinione.
La storia del campionamento nelle scienze sociali è semplice e breve. Le prime proposte di sostituire la rilevazione totale con una rilevazione parziale furono avanzate dallo statistico norvegese Anders Kiaer nel 1895, ma non trovarono una buona accoglienza. […] Dopo diversi anni, nel 1926, l’iniziale intuizione di Kiaer venne formulata in termini più rigorosi dallo statistico A.L. Bowley, che introdusse il concetto di campionamento casuale semplice.
Occorrerà tuttavia attendere ancora un decennio prima della definitiva sistematizzazione teorica dell’intero campo, dovuta ai lavori dello statistico polacco Jerzy Neyman, che stabilì la distinzione fra campionamento ragionato e campionamento probabilistico e fissò le basi teoriche del secondo, il quale affida al caso la scelta delle unità da inserire nel campione.
Dal punto di vista applicativo, un contributo fondamentale alla diffusione della nuova procedura del campionamento probabilistico venne dagli istituti di sondaggi d’opinione, che immediatamente la adottarono. C’è un episodio che in un certo senso segna l’affermazione definitiva del campionamento probabilistico, e che tutti i manuali di metodologia riportano per la sua capacità di illustrarne i vantaggi. Nel 1936 il rotocalco popolare americano “Literary Digest”, al fine di predire l’esito delle elezioni presidenziali di quell’anno, inviò per posta un facsimile di scheda elettorale a oltre 10 milioni di nominativi tratti dagli elenchi telefonici e dai registri automobilistici, ottenendo 2 milioni di risposte, un campione cioè di dimensioni colossali. Il risultato del campione diede a Franklin T. Roosevelt solo il 41% dei voti, lasciando prevedere un largo successo del suo antagonista Alf Landon. I fatti invertirono clamorosamente tale previsione, in quanto Roosevelt venne eletto con una percentuale di circa il 61%. L’esito reale delle elezioni venne invece predetto dagli istituti di sondaggi Gallup, Roper e Crossley, i quali operavano con campioni di dimensioni infinitamente minori, ma estratti casualmente dall’intera popolazione. Qual era stato l’errore del “Literary Digest”? Innanzitutto un errore di copertura: le liste della popolazione utilizzate non erano complete. In assenza di un’anagrafe dei cittadini (che negli Stati Uniti non esiste) gli organizzatori del sondaggio ricorsero ad elenchi di proprietari di auto ed intestatari di telefono. Ma in quegli anni (gli anni della grande depressione) questi cittadini non erano rappresentativi dell’intera nazione, ma espressione solo dei ceti più abbienti, i quali peraltro tendevano a votare repubblicano. Una seconda deformazione del campione rispetto alla popolazione consistette in un errore di non-risposta, cioè di autoselezione: chi rispose al questionario non era uguale a chi non rispose (probabilmente i primi erano i più istruiti, i lettori abituali della rivista, ecc., tutte variabili queste correlate al voto).
Gli istituti di sondaggi riuscirono a prevedere il voto con maggiore precisione proprio perché il loro campione – anche se più piccolo – era più rappresentativo della popolazione. Questo successo, che ebbe grande risonanza presso i media e l’opinione pubblica, rappresentò la consacrazione ufficiale dei piccoli campioni probabilistici contro i grandi campioni ispirati alla logica del censimento. Lo stesso presidente Roosevelt iniziò ad utilizzare i sondaggi dell’istituto di George Gallup per conoscere l’opinione pubblica e in quegli stessi anni il Dipartimento dell’Agricoltura, uno dei santuari della statistica ufficiale americana, istituì una Divisione per le Indagini Campionarie per rilevare gli atteggiamenti degli agricoltori utilizzando campioni probabilistici degli stessi.

Rispondi

1. Che cos’è il campionamento probabilistico?
2. Che cosa vuol dire commettere un “errore di copertura” nella definizione del campione?
3. Che cos’è un “errore di non-risposta”?

 >> pagina 279 

|⇒ T3  Adam Arvidsson e Alessandro Delfanti

Big data e metodi digitali

La diffusione delle tecnologie digitali (Internet, social media, smartphone, tablet) rende possibile tracciare e raccogliere dati su azioni, interazioni e scambi con un dettaglio e in una quantità semplicemente inimmaginabili sino al secolo scorso.
Da un lato, ciò fornisce possibilità di ricerca del tutto nuove alla sociologia, ma, dall’altro, lancia alcune sfide ai metodi più tradizionali della ricerca sociale, oltre a sollevare interrogativi e questioni etiche che riguardano tutti noi in qualità di cittadini di un mondo sempre più digitale.

Il progressivo aumento dell’importanza delle reti ha avuto conseguenze importanti anche per la ricerca sociale, che ha sviluppato un insieme di nuovi metodi di studio, i cosiddetti “metodi digitali”. Le piattaforme dei social media, così come i siti di e-commerce, le carte di credito e i motori di ricerca raccolgono masse immense di dati sul comportamento degli utenti. Ormai è lecito supporre che tutte le nostre attività in rete lascino tracce che si prestano a essere studiate da sociologi e altri scienziati sociali. Con l’ulteriore espansione dei media digitali nella vita quotidiana, che avviene con l’uso di smartphone e l’integrazione di tecnologie di rete in altri oggetti, questa capacità di raccogliere dati crescerà ulteriormente. Questo avviene già quando usiamo Google Maps sul cellulare o corriamo con uno smartwatch che conta le calorie consumate. Queste quantità enormi di dati diventano i big data, grandi insieme di dati da cui si cerca di estrarre informazioni e di predire trend.
Dal punto di vista scientifico i big data sono un patrimonio inestimabile; dando accesso a masse di dati su intere popolazioni o sulla natura rendono possibile studiare fenomeni che prima erano inosservabili. I big data possono ad esempio essere utili per analizzare il trend del traffico automobilistico, i processi di consumo o la risposta a un farmaco da parte di una massa di pazienti.
Un altro metodo basato su masse di dati è la network analysis o studio delle reti, una metodologia che risale a prima dell’emergere dei media digitali ma che oggi usa software per rappresentare i pubblici, individuare lo spazio che occupano on-line le connessioni tra gli individui, e scoprire chi sono le persone più influenti. L’analisi semantica permette di studiare i discorsi che si sviluppano in rete. Tramite software si analizzano le ricorrenze con cui, ad esempio, due termini vengono usati nella stessa comunicazione. Il marketing commerciale e politico usa queste tecniche per analizzare il contenuto di milioni di tweet o commenti e capire se su Twitter o su altri media un brand, un prodotto o un politico sono associati a termini positivi e negativi: in questo caso si parla di sentiment analysis. Attualmente gran parte del patrimonio costituito dai big data è di proprietà privata. La quantità enorme di dati raccolti da Google o Facebook rimangono inaccessibili ai ricercatori sia pubblici sia privati, oppure devono essere acquistati a caro prezzo, per esempio da Twitter. In più non sappiamo come vengano utilizzati dalle imprese. Le grandi aziende del Web hanno dipartimenti di ricerca interni che lavorano sui dati in assenza di una politica di trasparenza di controllo pubblico. Nel 2014 ricercatori universitari statunitensi sono stati criticati per aver condotto in collaborazione con Facebook un esperimento psicologico sulle emozioni di quasi 700.000 utenti, manipolando la loro esperienza sul social network senza che questi lo sapessero. Anche lo studio di contenuti pubblici, come i commenti postati su un forum o i tweet, deve rispondere agli standard etici della ricerca sociale.
Un approccio differente è l’etnografia digitaleusata per comprendere in profondità i modi di ragionare e comunicare, cioè le culture che caratterizzano alcune forme di vita on-line. Questo metodo è un adattamento di quello etnografico tipico dell’antropologia allo studio di comunità o pubblici in rete ed è basato sull’osservazione di forum, media sociali, mailing-list o siti Web, spesso tramite la partecipazione diretta del ricercatore o ricercatrice. Studiare le culture e le forme di interazione che si sviluppano on-line non significa però studiare le persone che vi partecipano. Questa è una distinzione importante: studiare il pubblico degli appassionati di Il trono di spade vuol dire analizzare comunicazioni strutturate dalla& piattaforma su cui avvengono.

Rispondi

1. Che cosa sono i metodi digitali?
2. Per quali scopi possono essere utilizzati i big data?
3. Quali questioni pongono i big data alla ricerca sociale e, più in generale, all’uso che ognuno di noi fa delle tecnologie digitali?

I colori della Sociologia
I colori della Sociologia
Secondo biennio e quinto anno del liceo delle Scienze umane