La pervasività del social web è tale che, se non ci fermiamo un attimo a pensare, non ci rendiamo conto della continua pressione a comportarci ed essere qualcuno che non siamo. Sappiamo bene come i social network, fondati sulla pubblicità personalizzata, sanno tutto su di noi, ci osservano e ci sorvegliano. Sappiamo anche che, a seconda del paese in cui viviamo, il governo e le forze dell’ordine possono accedere a questi dati. Il caso Edward Snowden ha aperto gli occhi a chi li aveva ancora chiusi. Perché tutto questo ci trasforma in qualcuno che non siamo, con l’effetto finale di creare una tensione tra la persona che siamo online e la nostra identità?
Le tue tracce digitali parlano di te
Metti un mi piace, lasci una recensione, scrivi un commento, clicchi su un link, leggi un articolo, segui un video. Nel frattempo c’è chi registra tutti i tuoi comportamenti e cerca di classificare chi sei, le tue abitudini e cosa ti piace in maniera granulare. Facebook è un campione in questa disciplina, grazie al tuo lavoro volontario, ma non è l’unico a sapere molto della tua vita digitale.
What seemed frightening and even immoral fifty years ago we now mostly take for granted. We shouldn’t. Facebook places its billions of customers into many more than 480 categories, based not on voluntary surveys but on pervasive surveillance. Machine-learning techniques intuit cultural “affinities” and political preferences. The algorithms sort users by location, education level, languages, financial standing, property ownership, occupation, age, gender, sexual preference, and relationship status. They track almost everything you buy, read, or watch. Facebook knows who is connected to, related to, and interested in whom.
Fino a qui molti fanno spallucce. Puoi restare in contatto con i tuoi amici, comunicare con loro dall’altra parte del mondo, condividere contenuti multimediali, informarti sulle tue passioni, conoscere gente nuova, far sapere alla tua famiglia lontana che stai bene. Tutto questo è gratis, in cambio di qualche pubblicità, che a volte sembra perfino interessante. Perché non accettare questo scambio?
La discriminazione
Gli algoritmi che determinano quali contenuti suggerirti per mantenerti coinvolto e attivo, per il tempo più lungo possibile, soffrono di un bias, ovvero si prestano alla discriminazione e alla manipolazione. C’è chi ha provato a influenzare (con successo?) l’esito delle elezioni spingendo alcuni elettori a non andare a votare. Altri collezionano i dati raccolti dal tuo fitness tracker per avere più informazioni sulla tua salute e offrirti o meno un’assicurazione sanitaria più (o meno) conveniente. Perfino Tinder usa un algoritmo per capire quanto sei desiderabile e decidere quindi se far vedere più o meno spesso il tuo profilo agli altri utenti.
Che ce ne rendiamo conto o meno, i dati che produciamo e lasciamo che soggetti privati raccolgano mentre navighiamo si prestano a essere usati contro di noi o a influenzare il nostro comportamento. Se sappiamo che più contenuti pubblichiamo, più interazioni il nostro profilo riceve, cercheremo di produrre la maggior quantità di contenuti e di essere online per il maggior tempo possibile, così da ricevere più attenzione dagli amici e dai soggetti che vogliamo attrarre. Questo fenomeno non vale soltanto per le attività commerciali e le aziende, ma vale per tutti, perché per l’algoritmo il fattore discriminante è lo stesso. L’effetto finale è che il nostro comportamento cambia. Finiamo per considerare noi stessi un brand a caccia di visibilità e affari, applicando su noi stessi le stesse regole per vendere un prodotto. Se poi finiamo per rimanere sullo scaffale e nessuno ci sceglie, ciò che cala non è il fatturato ma la nostra autostima.
Una maschera per essere accettati
Come i bambini che vogliono essere uguali ai propri compagni di scuola, in tutto e per tutto, per non apparire diversi ed essere discriminati, l’algoritmo alla base della visibilità e dell’appetibilità del nostro profilo e dei nostri contenuti tende a favorire l’omologazione. Se proviamo a essere diversi e l’algoritmo ci penalizza – nessun mi piace in un’ora, i nostri amici che non reagiscono alla foto che abbiamo pubblicato – allora c’è qualcosa che non va in noi e dobbiamo subito correre ai ripari: cancellare l’immagine e ripubblicarne un’altra, con un’altra posa o un altro messaggio, finché l’algoritmo non ci dia qualche segno che abbiamo fatto la scelta giusta. Peccato che l’algoritmo non premi l’originalità o l’unicità, ma favorisca ciò che genera conversazione, interazioni, coinvolgimento, click e visualizzazioni. Poco importa se l’effetto è un aumento del cospirazionismo, della polarizzazione della società e del rumore di fondo. Ciò che conta è che continuiamo a essere sempre più connessi. Arrabbiati, frustrati, depressi, indignati: tutto ciò importa poco. Anzi nulla.
Nei regimi autoritari la sorveglianza abilitata dal digitale sopprime la protesta, non con la violenza, ma con il disincentivo a essere diversi. Una volta che sai quanto ti può costare scrivere un messaggio di critica alle istituzioni, come non poter prendere l’aereo, ci pensi due volte a protestare. Nei paesi dove il capitalismo della sorveglianza è tollerato (Italia inclusa) ci sono datori di lavoro che ti chiedono la password del tuo profilo social prima di assumerti o che si fanno un bel giro su tutti i tuoi contenuti. Del resto anche il governo americano ha il diritto di conoscere i profili social di tutti gli stranieri in ingresso nel paese, per valutare il relativo profilo di rischio e respingere chi non è gradito per le idee espresse dai contenuti pubblicati negli stessi profili. Tutti tendiamo quindi a pubblicare contenuti edulcorati, anche quando in ballo non c’è la prigione, ma un semplice premio offerto dalle nostre aziende preferite.
Come cambia la società? Tre domande a cui rispondere
Quale impatto sull’evoluzione della società?
Se le minoranze sono più tutelate, quanto sono accettate? La tutela legislativa è una cosa, l’accettazione sociale un’altra. A parole possiamo dirci più inclusivi e più tolleranti, ma i fatti poi corrispondono o tendiamo a preferire chi la pensa come noi e chi è come noi? L’accesso a più informazioni e a maggiori conoscenze non ci ha reso più intelligenti e neanche meno razzisti. Il fatto che chi lavora nelle aziende tech sia in prevalenza maschio e bianco non aiuta di certo a creare algoritmi neutrali, anzi. L’effetto reale è di continuare negli stessi errori e nelle stesse discriminazioni.
Quali conseguenze sulla creatività?
Se il messaggio implicito che otteniamo dalla nostra esperienza social è che omogeneo è bello, che fine fa la creatività vera, quella che esce dagli schemi, che stimola connessioni tra idee nuove? Finisce anche questa per essere incasellata tra un numero limitato di opzioni, per cui continuiamo a pensare di essere creativi, quando invece qualcuno ha già scelto per noi?
Più educati e meno umani?
Ci possiamo dire veramente liberi se sapere di essere osservati ci pone in una condizione di mostrare non chi siamo veramente, ma la migliore versione di noi stessi? Facebook ha schiacciato su un unico piano le diverse identità che abbiamo coltivato nel corso della nostra vita, frequentando persone diverse, perseguendo diversi gruppi di interessi. La versione buona per tutti è il frutto della somma o della differenza tra le nostre diverse sfaccettature? La domanda in se si presta a essere discussa, perché l’espansione dell’odio in rete non è certo un sintomo di buona educazione che si diffonde grazie alla rete.
Cosa fare?
When algorithms judge everything we do, we need to protect the right to make mistakes.
When everything is remembered as big data, we need the right to have our mistakes forgotten.
La prima risposta che possiamo fare è accrescere la nostra consapevolezza e usare la tecnologia comprendendo meglio i meccanismi alla base dei servizi che sono diventati parte del nostro quotidiano.
Solo dalla consapevolezza nasce la libera scelta. Se so che uno smart speaker in casa mia mi semplifica la vita, ma mi permette di accedere a risposte predigerite per me, oltre ad avere un microfono potenzialmente sempre attivo, vale comunque la pena averne uno?
Se comprendo che i miei dati hanno un valore economico che eccede lo scambio accettato fino a oggi di servizi gratis in cambio di sorveglianza, voglio ancora permettere questo scambio?
Non dare nulla per scontato, avere un approccio critico, non firmare o accettare condizioni senza porsi domande, approfondire l’effetto degli algoritmi e chiedere maggiore trasparenza. Tutto ciò è un nostro diritto.
L’evoluzione degli algoritmi e l’impatto conseguente sulla società non sono già scritti, ma dipendono da te, dipendono da me, dipendono da noi. Non lasciamo ad altri questa scelta. Riprendiamo in mano il nostro destino.
Articolo ispirato dalla campagna The social cooling.
Foto di Siora Photography su Unsplash
Leggi altri blog post su Lacontent.it
- Content Marketing: Cos’è, Definizione, Esempi e Strategie
- I 10 Errori di Content Marketing da Evitare nella Propria Strategia
- Content Marketing B2B: Cos’è, Strategie, Esempi e Trend
- 8 Libri sul Content Marketing Che Dovresti Leggere
- Metriche di Content Marketing: 20 KPI da Misurare
- Content Marketing per Ecommerce: Strategie, Esempi e Benefici per le Aziende
- Strategie di Content Marketing per le PMI