Nicholas Carr: "Noi, sudditi inconsapevoli in una società automatizzata", di Fabio Chiusi

- Scritto da Redazione de Gliscritti: 14 /06 /2015 - 14:43 pm | Permalink | Homepage
- Tag usati: ,
- Segnala questo articolo:
These icons link to social bookmarking sites where readers can share and discover new web pages.
  • email
  • Facebook
  • Google
  • Twitter

Riprendiamo da La Repubblica del 15/5/2015 un’intervista di Fabio Chiusi a Nicholas Carr. Restiamo a disposizione per l’immediata rimozione se la sua presenza sul nostro sito non fosse gradita a qualcuno degli aventi diritto. I neretti sono nostri ed hanno l’unico scopo di facilitare la lettura on-line. Per approfondimenti, cfr. la sotto-sezione Educazione e media.

Il Centro culturale Gli scritti (14/6/2015)

In un sistema automatizzato ", scrive Nicholas Carr in La gabbia di vetro (Raffaello Cortina), "il potere si concentra nelle mani di chi controlla la programmazione ". E noi rischiamo di diventarne sudditi inconsapevoli. È il lato oscuro delle tante comodità che la tecnologia porta nelle nostre vite. Se non lo vediamo a sufficienza è a causa dell'illusione che le macchine siano oggettive, sempre nel giusto. Famoso per le sue domande radicali, l'autore che si era già chiesto se Google ci stesse "rendendo stupidi" punta ora il suo sguardo sulla società in cui gli algoritmi guidano aerei, compiono transazioni finanziarie, sostituiscono mansioni intellettuali  -  oltre che manuali  -  e decidono a quali contenuti essere esposti in Rete.

Carr, l'automazione ci sta rendendo stupidi?
"No, non è la parola giusta. Credo ci stia rendendo meno capaci di agire in autonomia. La mia idea non è che l'automazione sia cattiva, o che debba avere effetti nocivi. È che la stiamo progettando in modo stupido. Così, invece di darci la possibilità di espandere le nostre prospettive e conoscenze le sta rimpiazzando, rendendo le nostre vite più semplici ma meno soddisfacenti e interessanti".

Il suo libro suona come un monito: attenti, abbiamo sottovalutato i costi dell'automazione. Al punto di non esserci resi conto che sono superiori ai benefici?
"In molti casi è già così. Dobbiamo ricordare che gli strumenti che usiamo modificano la nostra esperienza dell'esistente. Troppo spesso invece tendiamo a considerare computer, programmi e algoritmi come mezzi di produzione o consumo. Dovremmo fare un passo indietro, e considerarli un mezzo esperienziale. In altre parole, questi strumenti danno forma al modo in cui viviamo, lavoriamo, interagiamo l'un l'altro. Di conseguenza, dobbiamo assicurarci che siano progettati per arricchire le nostre esistenze, piuttosto che per renderci marginali rispetto alle nostre vite. Più diventiamo dipendenti dagli algoritmi, e più facile è manipolarci".

Perché parla di "gabbia di vetro "? Il vetro è trasparente, gli algoritmi molto meno.
"Il vetro è quello dei monitor, come quelli che circondano i piloti in volo. Guardano schermi di computer e immettono dati, invece di guardare il mondo fuori dalla cabina: una metafora di come viviamo oggi, sempre più di fronte a uno schermo, e di quanto questo possa diventare una prigione".

In che modo?
"Sul lavoro o nella vita personale e sociale, ciò che stiamo testimoniando spesso è una serie di effetti negativi dell'automazione: diventiamo dipendenti dai computer, al punto di affidarci a loro per qualunque compito. Il risultato è che stiamo cominciando a perdere alcune delle nostre abilità, a restringere il campo delle nostre percezioni, perché non stiamo affrontando le sfide che è necessario superare per incrementare i nostri talenti, ed espandere i nostri orizzonti ".

Questione rilevante anche dal punto di vista economico: Google è indagata in Europa per presunto abuso di posizione dominante. È d'accordo con Francia e Germania, che chiedono di rivelarne l'algoritmo di indicizzazione?
"Per me è un bene. Credo che uno dei pericoli principali sia dipendere da software al cui codice ci è vietato l'accesso. Il che significa che la nostra dipendenza è da qualcosa che non capiamo; per quanto mi riguarda, è una delle sfide più impegnative che ci pone la Rete. L'unico modo per risolvere questo contrasto è rendere gli algoritmi e il loro funzionamento più visibili a tutti noi. Non lo dico a cuor leggero, perché aziende come Facebook, Google e Twitter hanno un interesse legittimo nel tutelare la loro proprietà intellettuale".

Gli algoritmi sono la fonte del loro vantaggio competitivo.
"Sì, almeno è quanto dicono. Eppure credo il pubblico abbia legittimo interesse a sapere come ci vengono presentate le informazioni, le pubblicità. È un conflitto tra interessi dei singoli individui e delle aziende, ma ciò che sta facendo la Ue è appropriato. In sostanza sta dicendo: se queste compagnie devono dettare il modo in cui facciamo determinate cose, allora dovremo sapere di più su come funzionano davvero, altrimenti ci siamo soltanto assoggettando a monopoli".

Che serva più trasparenza è oramai opinione condivisa tra molti osservatori qualificati. Il problema è capire quanto rivelare di quegli algoritmi senza danneggiare indebitamente il business di questi soggetti privati.
"È una questione complicata anche dal fatto che gli algoritmi non sono stabili. Google ha annunciato che incorporerà un giudizio su come un sito è consultabile da mobile nel suo ranking. Anche per questo capire come rivelare di più è un problema insidioso. Non per questo tuttavia non va affrontato".

Nel libro scrive che tutto questo ci rende anche più facili vittime di sorveglianza. Che in Francia sarà presto proprio algoritmica: a distinguere cittadino e sospetto di terrorismo sarà una serie di istruzioni, codice. Non c'è il rischio che la nostra compiacenza verso le macchine ci porti a sottovalutare ulteriormente il problema?
"Sì, e non è un pericolo limitato alla sorveglianza. Al crescere della nostra dipendenza dai Big Data per il funzionamento di società e governi, cresce il rischio di perdere di vista il fatto che la complessità delle sfide sociali non può essere risolta puramente attraverso algoritmi predittivi e calcoli: ci sono cose che non si possono esprimere coi dati. E in ogni caso non esistono algoritmi neutrali: sono persone a programmarli, coi loro interessi, e i loro difetti".