Il Dio crudele

1074
0
CONDIVIDI

L’evoluzione è il principale processo che modella l’umanità e il pianeta in cui viviamo, portando con se culture, pensieri, aspetti fisici degli ambienti e delle persone che vi vivono dentro. Spesso però, questo processo è influenzato da fattori che lo sconvolgono e ne cambiano il corso, trascinando tutto su una strada sbagliata. La tecnologia, questo lo abbiamo compreso bene negli ultimi anni, ci ha cambiati sotto molti punti di vista, soprattutto in quello strutturale, rendendo città e luoghi connessi fra loro, quasi come se vivessero in un costante parallelismo. Il pensiero, forse l’aspetto più delicato, sia per la sua parte biologica che psicologica, è particolarmente labile, dunque la tecnologia lo ha sviluppato a sua immagine e somiglianza, ma senza incappare in giochetti sporchi o situazioni di disagio. Facebook, in questo, è divenuto un vero e proprio maestro, essendo un mezzo utilizzato da milioni di persone in tutto il mondo. Le ultime voci trapelate, e confermate dalla stessa società, però, rendono il social network blu un ‘Dio crudele‘, che manipola i propri utenti, le loro emozioni e i loro pensieri, per averne dei dati. E questo non è affatto bene.

La società californiana, proprio in queste ultime ore, ha confermato una delle notizie più gravi della sua storia, che rendono il proprio essere sempre più cupo agli occhi della propria stessa utenza; quest’ultimi iniziano a non fidarsi più dei vari ‘Mi Piace’ o ‘Condividi’, protestando o provando a ‘cambiare Dio‘. Il rumors parlava, nelle scorse ore, di più di 700mila contatti Facebook manipolati per ottenere dati sulle emozioni degli utenti, non solo in rete, ma anche nella vita reale. I ricercatori, che proprio qualche ora fa hanno confermato l’esperimento, si difendono, ma ammettono che forse hanno sottovalutato il contesto. Forse gli è sfuggito di mente che gli utenti sono persone reali, con una vita, con problemi e moltissime altre variabili che, se modificate anche di poco, potrebbero scaturire un putiferio nella vita di questi soggetti, portandoli anche a gesti non proprio piacevoli. E di testimonianze e racconti analoghi, purtroppo, ne abbiamo anche troppi.

Lo studio di Facebook, svolto con la University of California e della Cornell, sarebbe del tutto legittimo, forse anche utile per l’utenza della Rete e quella al di fuori, ma a patto che non vengano toccati dati sensibili, manipolati a regola d’arte per scaturire determinate reazioni su soggetti presi come obiettivo. Tutto si somma alla sensazione inquietante e cupa che si prova durante questo genere di attività. Ovviamente, lo stato d’animo altrui influenza anche il nostro, ma i dati vanno raccolti su basi reali, che potrebbero dare anche dei risultati più fedeli alla realtà. Potremo paragonare, questa intromissione di Facebook sui dati degli utenti, come quella che i religiosi chiamano la “volontà di Dio“. Vi sono molte convergenze nei due modi di essere, pensare e fare, che però non indirizzano gli obiettivi verso un futuro sicuro, poiché lo stesso Dio è incerto su se stesso e gli altri.

L’esperimento si è svolto per una settimana, tra l’11 e il 18 gennaio di due anni fa. A capo del team troviamo Adam Kramer, che hanno manipolato artificialmente i dati ad hoc, quelli negativi e poi quelli positivi, analizzando quanto questi cambiamenti contagiavano il “mood” generale del campione osservato. In particolare, il test basato sui dati negativi, ha potuto riportare numeri importanti per la ricerca: più la depressione linguistica dei post sale, maggiore è anche la depressione degli stessi utenti. A questo punto, in molti, potrebbero dire: “e allora, è normale che questo accada, non ce lo deve mica dire Facebook?”. Forse si, o forse no. Quello che gli studiosi hanno voluto sottolineare è, soprattutto, la facilità con cui questo accade, in un mezzo virtuale come Facebook, considerato il mattone principale che costituisce la società, non solo virtuale, ma anche reale, influenzata proprio grazie agli utenti della Rete.

Queste le parole degli stessi studiosi, che ammettono alcuni dettagli più approfonditi e si scusano:

“La nostra ricerca ha cercato di indagare una piccola percentuale di contenuti nella News Feed (basata sul fatto che ci fosse una parola emozionale nel post) per un gruppo di persone (circa lo 0,04% degli utenti) per un breve periodo. Nessun messaggio è stato “nascosto”, in alcuni casi non sono stati caricati. Questi post sono sempre stati visibili sulla timeline degli amici e visualizzati sui successivi upload del News Feed.

Alla fine dell’esperimento, l’impatto effettivo sulle persone era nella misura minima per essere rilevato statisticamente; il risultato è stato che le persone hanno prodotto una media di una parola emotiva in meno o in più per mille parole nel corso della settimana seguente. Dopo aver scritto e disegnato questo esperimento io stesso posso dirvi che il nostro obiettivo non è mai stato scontentare nessuno. Posso capire perché alcune persone si sono preoccupate, i miei coautori e io siamo molto dispiaciuti per il modo in cui l’informazione ha descritto la ricerca e l’ansia che ha causato.

Col senno di poi, i benefici della ricerca potrebbero non aver giustificato tutta questa ansia”.

Un articolo pubblicato sul blog Tumbling Conduct, prova a spiegare e a criticare, con alcuni principali punti cardine, questo esperimento venuto male. Vi lasciamo due di questi punti, definiti fondamentali, qui sotto:

  • Poche informazioni agli utenti. Non si può dire che il test sia stato somministrato ad un alto livello di informativa. Il Data use non contempla con precisione il calcolo del campione minimo per il numero minimo di soggetti, né lo studio esplica l’attenzione alla possibilità di rinunciare al test, di non ledere il benessere degli utenti. Il consenso informato è stato più che altro formale, mai concretizzato.
  • I rischi per i soggetti. Un altro punto dolente, anche se più accademico che altro – stando ai risultati – è che nessuno ha pensato ai disturbi dell’umore, di cui soffre il 9,5% degli americani. Per quanto statisticamente basso, si è corso il rischio si somministrare a un numero considerevole di persone vulnerabili uno stress emotivo senza che fosse possibile rifiutarsi. Un conto è un effetto “trascurabile” statisticamente, un altro è il concetto di precauzione.

Schermata 2014-07-01 alle 02.59.30

Le piccole varianti al mood degli utenti misurate nel test del 2012 dai ricercatori di Facebook.

Come abbiamo spiegato, proprio qualche giorno fa, in un articolo chiamato ‘La religione del futuro‘ dedicato alle nuove divinità nate dalla tecnologia, il problema principale esiste nel momento in cui queste divinità sono reali, non sottoforma di un qualche particolare spirito o nelle menti e nei ‘cuori’ di ognuno di noi, chi più chi meno. La veridicità e la realtà di un Dio potrebbe portare quest’ultimo a svolgere azioni basate esclusivamente sui propri interessi, che lo renderebbero manipolatore, ma anche crudele.

RIPRODUZIONE RISERVATA © Copyright OVERPRESS