È disponibile subito il podcast di oggi de
Il Disinformatico
della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto:
lo trovate
qui sul sito della RSI
(si apre in una finestra/scheda separata) e lo potete scaricare
qui.
Le puntate del Disinformatico sono ascoltabili anche tramite
iTunes,
Google Podcasts,
Spotify
e
feed RSS.
—
[CLIP: Discussione finale fra HAL e David Bowman da “2001 Odissea nello
spazio” (1968)]
È facile considerare l’intelligenza artificiale come nient’altro che
l’ennesima novità tecnologica, uno strumento informatico in più, un ausilio al
quale ci abitueremo presto. Nessuno si è agitato o ha proclamato la catastrofe
sociale per l’introduzione del controllo ortografico o del riconoscimento
vocale. Quindi perché così tanto clamore, e in alcuni casi panico, proprio
intorno all’intelligenza artificiale?
L’esperto di sicurezza informatica Bruce Schneier, autore di numerosi libri
sulle tematiche digitali e membro del direttivo della
Electronic Frontier Foundation, una delle
associazioni di punta nella tutela dei diritti digitali, ha pubblicato un
saggio, intitolato AI and Trust, nel quale spiega molto bene questa anomalia
partendo da un concetto sociale, non tecnologico: la fiducia. E spiega perché
noi, come esseri umani, siamo particolarmente vulnerabili alla natura
seducente dell’intelligenza artificiale.
Le sue parole sono al centro della puntata del 26 aprile 2024 del
Disinformatico, il podcast della Radiotelevisione Svizzera dedicato
alle notizie e alle storie strane dell’informatica. Benvenuti. Io sono Paolo
Attivissimo.
[SIGLA di apertura]
Premessa: due tipi di fiducia da distinguere
“La fiducia“, dice Bruce Schneier,
“è essenziale per la società. Gli esseri umani, come specie, tendono a
fidarsi gli uni degli altri.”
Prendiamo un mezzo pubblico o camminiamo per strada dando per scontato di
poterci fidare del conducente di quel veicolo e del fatto che non verremo
aggrediti dai passanti. La fiducia è l’impostazione di default della società,
per così dire.
E ci sono due tipi di fiducia: quella interpersonale, basata sulla
conoscenza diretta di una persona, e quella sociale, basata sui
meccanismi e sulle regole condivise che inducono le persone a comportarsi
mediamente in modo affidabile. “Il sistema non è perfetto”, nota
ovviamente Schneier:
“ci saranno sempre persone che abusano della nostra fiducia, ma il fatto
che la maggior parte di noi sia affidabile per la maggior parte del tempo è
sufficiente. […] Le leggi e le tecnologie di sicurezza sono sistemi di
fiducia che ci obbligano a comportarci in modo affidabile”, consentendo società più grandi e complesse e permettendo la cooperazione
tra sconosciuti.
Da qui in poi vi riporto in sintesi le parole chiarissime di Bruce Schneier, tradotte con
il suo permesso. La traduzione integrale del suo saggio è disponibile presso Disinformatico.info.
A causa dell’ampiezza e della complessità della società, abbiamo sostituito
molti dei rituali e dei comportamenti tipici della fiducia interpersonale con
meccanismi di sicurezza che garantiscono affidabilità e prevedibilità, ossia
la fiducia sociale. Ma poiché usiamo lo stesso termine “fiducia” per
entrambi, li confondiamo regolarmente. E quando lo facciamo, commettiamo un
errore di categorizzazione. Lo facciamo continuamente: con i governi, con le
organizzazioni, con i sistemi di tutti i tipi, e soprattutto con le aziende.
Possiamo pensare a loro come amiche, quando in realtà sono servizi. Le aziende
non sono morali; sono immorali, nella misura in cui la legge e la loro
reputazione gliela fanno passare liscia.
Di conseguenza, le aziende si approfittano regolarmente dei loro clienti,
maltrattano i loro lavoratori, inquinano l’ambiente e fanno pressioni per
modificare le leggi in modo da poter fare queste cose ancora di più.
Sia il linguaggio che le leggi, dice Schneier, rendono facile commettere questo errore di
categorizzazione. Usiamo la stessa grammatica per le persone e le aziende.
Immaginiamo di avere rapporti personali con i marchi. Diamo alle aziende
alcuni degli stessi diritti che diamo alle persone.
Alle aziende piace che commettiamo questo errore di categoria (lo
commette anche Schneier, scherzosamente, usando questo concetto di piacere). Piace perché traggono profitto
quando pensiamo a loro come amiche. Utilizzano mascotte e testimonial.
Hanno account sui social media, e questi account hanno una propria
personalità. Si riferiscono a loro stesse come se fossero persone. Ma non sono
nostre amiche: le aziende non sono in grado di avere questo tipo di relazione.
Stiamo per commettere lo stesso errore di categorizzazione con le intelligenze
artificiali: le considereremo nostre amiche quando non lo sono.
La seduzione dell’IA, spiegata
A questo punto del suo saggio, Bruce Schneier nota che le intelligenze
artificiali del prossimo futuro saranno controllate dalle aziende, che le
useranno per raggiungere l’obiettivo di massimizzare il profitto. Non saranno
nostre amiche: nel caso migliore saranno servizi utili. Più probabilmente, ci
spieranno e cercheranno di manipolarci.
Questa non è una novità. La sorveglianza e la manipolazione sono il modello di
business di Internet. I risultati delle vostre ricerche in Google sono
preceduti da link che qualcuno ha pagato per mostrare. I vostri feed di
Facebook e Instagram sono pieni di post sponsorizzati. Le ricerche su Amazon
restituiscono pagine di prodotti i cui venditori hanno pagato per essere
piazzati in quelle pagine.
Questo è il modo in cui funziona Internet. Le aziende ci spiano mentre
utilizziamo i loro prodotti e servizi. I broker di dati acquistano i dati di
sorveglianza dalle aziende più piccole e creano dossier dettagliati su di noi.
Poi rivendono queste informazioni a queste e altre aziende, che le combinano
con i dati raccolti da loro per manipolare il nostro comportamento, al
servizio dei loro interessi e a spese dei nostri interessi.
Utilizziamo tutti questi servizi come se fossero nostri agenti, che lavorano
per noi. In realtà, sono agenti doppiogiochisti, che lavorano segretamente
anche per i loro proprietari aziendali. Ci fidiamo di loro, ma non sono degni
di fiducia. Non sono amici, sono servizi.
Non sarà diverso con l’intelligenza artificiale, e il risultato, secondo Bruce Schneier, sarà molto
peggiore, per due motivi.
Il primo motivo è che questi sistemi di intelligenza artificiale saranno più
relazionali. Converseremo con loro, utilizzando il linguaggio naturale. E così
attribuiremo loro spontaneamente delle caratteristiche simili a quelle umane.
Questa natura relazionale renderà più facile il lavoro di questi
doppiogiochisti. Il vostro chatbot vi ha consigliato una particolare compagnia
aerea o un hotel perché è davvero l’offerta migliore, in base alle vostre
particolari esigenze, o perché l’azienda di intelligenza artificiale ha
ricevuto una tangente da quei fornitori? Quando gli avete chiesto di spiegare
una questione politica, ha orientato la sua spiegazione verso la posizione
dell’azienda o del partito politico che le ha dato più soldi? L’interfaccia
conversazionale aiuterà a nascondere le loro intenzioni.
Il secondo motivo di preoccupazione è che queste intelligenze artificiali
saranno più intime. Una delle promesse dell’intelligenza artificiale
generativa è un assistente digitale personale, che agisce come vostro
rappresentante verso gli altri e come maggiordomo con voi. Questo richiede
un’intimità maggiore rispetto a un motore di ricerca, a un provider di e-mail,
a un sistema di archiviazione cloud o a un telefono. Desidererete che questo
assistente sia con voi 24 ore su 24, 7 giorni su 7, e che si istruisca
costantemente su tutto ciò che fate. Sarete voi a volere che sappia tutto di
voi, in modo da poter lavorare nel modo più efficace per vostro conto.
E questo assistente vi aiuterà in molti modi. Noterà i vostri stati d’animo e saprà cosa
suggerirvi, anticiperà le vostre esigenze e lavorerà per soddisfarle. Sarà il
vostro terapeuta, life coach e consulente relazionale.
Vi verrà spontaneo considerarlo un amico: vi rivolgerete a lui in linguaggio
naturale, e lui farà lo stesso con voi. Se è un robot, avrà un aspetto umanoide o
almeno simile a un animale. Interagirà con tutta la vostra esistenza, proprio
come farebbe un’altra persona.
Il suo uso del linguaggio naturale è decisivo, in questo caso, perché siamo
portati automaticamente a pensare agli altri che parlano la nostra lingua come
persone, mentre a volte abbiamo problemi a trattare come persone chi parla una
lingua diversa dalla nostra.
Prosegue Schneier:
[…] Vorrete fidarvi di questo assistente, che userà i vostri stessi modi di
fare e riferimenti culturali, avrà una voce convincente, un tono sicuro e un
modo di fare autorevole. La sua personalità sarà ottimizzata esattamente su ciò che vi
piace e a cui reagite. Si comporterà in modo affidabile, ma non sarà affidabile. Non sapremo come è stata addestrata, quali sono le sue istruzioni segrete o
i suoi pregiudizi, accidentali o intenzionali.
Sappiamo però che queste intelligenze artificiali vengono create con costi
enormi, per lo più in segreto, da aziende che massimizzano il profitto per il
proprio beneficio.
Non è un caso che queste intelligenze artificiali aziendali abbiano
un’interfaccia simile a quella umana. Non è inevitabile: è una scelta
progettuale. Le si potrebbe progettare per essere meno personali, meno simili
all’essere umano, più dichiaratamente dei servizi, come i motori di ricerca.
Le aziende che stanno dietro queste intelligenze artificiali sfrutteranno il fatto che le
scambiamo per amiche, e potremmo non avere altra scelta che usarle.
Chi ci darà una IA affidabile?
A volte, infatti, non abbiamo altra scelta che fidarci di qualcuno o qualcosa perché è
potente, spiega Bruce Schneier. Siamo costretti a fidarci della polizia
locale, perché è l’unica autorità di polizia in città. Siamo costretti a
fidarci di alcune aziende, perché non ci sono alternative valide. Ci troveremo nella
stessa posizione con e intelligenze artificiali: non avremo altra scelta che
affidarci ai loro processi decisionali.
E la confusione fra amico e servizio aiuterà a mascherare questa disparità di
potere. Dimenticheremo quanto sia potente l’azienda che sta dietro l’intelligenza
artificiale, perché ci fisseremo sulla “persona” che pensiamo che l’intelligenza
artificiale sia.
Schneier elenca poi alcuni modi in cui le intelligenze artificiali possono
fallire.
C’è la frode vera e propria, in cui l’intelligenza artificiale sta effettivamente cercando di
rubarvi qualcosa. C’è il più prosaico errore di competenza, in cui pensate che
questa intelligenza artificiale sia più esperta di quanto non sia realmente, perché si comporta ostentando
sicurezza. C’è l’incompetenza, quando si crede che l’intelligenza artificiale sia in grado di fare
qualcosa che non è in grado di fare. C’è l’incoerenza, quando ci si aspetta
erroneamente che una intelligenza artificiale sia in grado di ripetere i propri comportamenti. E c’è
l’illegalità, quando si confida erroneamente anhe qui, che l’intelligenza artificiale rispetti la legge.
Tutto questo vuol dire che abbiamo bisogno di un’intelligenza artificiale affidabile, di cui si
conoscano il comportamento, i limiti e la formazione, i cui pregiudizi siano
compresi e corretti, di cui si capiscano gli obiettivi e che non tradirà
segretamente la vostra fiducia a favore di qualcun altro.
Secondo Schneier,
[…] il mercato non fornirà spontaneamente queste cose, perché le aziende
massimizzano i profitti, a spese della società. E gli incentivi del
capitalismo di sorveglianza sono troppo forti per resistere. Sono invece i
governi a fornire i meccanismi di base per la fiducia sociale, che è
essenziale per la società. Pensiamo al diritto contrattuale, alle leggi sulla
proprietà, alle leggi che proteggono la vostra sicurezza personale e a tutte
le norme di salute e sicurezza che vi permettono di salire su un aereo,
mangiare al ristorante o acquistare un farmaco senza preoccupazioni.
I governi possono fare tutto questo per l’intelligenza artificiale. Abbiamo
bisogno di leggi sulla trasparenza dell’intelligenza artificiale: quando viene
utilizzata, come viene addestrata, quali pregiudizi e tendenze ha. Ci servono
leggi che regolino la sicurezza dell’intelligenza artificiale e della robotica e dicano quando è
permesso che l’intelligenza artificiale abbia un impatto sul mondo. Abbiamo bisogno di leggi che
impongano l’affidabilità dell’intelligenza artificiale, il che significa la capacità di riconoscere
quando queste leggi vengono infrante. E servono sanzioni sufficientemente
elevate da incentivare un comportamento affidabile.
Molti Paesi stanno valutando leggi sulla sicurezza delle intelligenze artificiali – l’Unione Europea
è la più avanti – ma secondo Schneier si sta commettendo un errore cruciale: si cerca di regolamentare le intelligenze artificiali e non gli esseri umani che vi stanno
dietro.
Se vogliamo un’intelligenza artificiale affidabile, dobbiamo richiedere controllori dell’intelligenza artificiale
affidabili. Abbiamo già un sistema per queste cose: i fiduciari. […] Medici,
avvocati, commercialisti […] sono tutti agenti di fiducia. Hanno bisogno di un
accesso straordinario alle nostre informazioni e a noi stessi per svolgere il
loro lavoro, e quindi hanno ulteriori responsabilità legali per agire nel
nostro migliore interesse. Hanno una responsabilità fiduciaria nei confronti
dei loro clienti.
Abbiamo bisogno della stessa cosa per i nostri dati. L’idea di un fiduciario
dei dati non è nuova, ma è ancora più vitale in un mondo di assistenti di
intelligenza artificiale generativi.
Modelli di IA pubblici
Secondo Schneier serve anche un’altra cosa: quelli che lui definisce
modelli di intelligenza artificiale pubblici.
Sistemi
costruiti dal mondo accademico, da gruppi no-profit o dal governo stesso, che
possono essere posseduti e gestiti dai singoli individui. Non si tratta di un
modello di intelligenza artificiale aziendale che il pubblico è semplicemente libero di utilizzare. Non è un
modello di intelligenza artificiale aziendale che il governo ha concesso in licenza. Non è nemmeno
un modello open source che il pubblico è libero di esaminare e modificare. Un
modello pubblico è un modello costruito dal pubblico per il pubblico. Richiede
una responsabilità politica, non solo una responsabilità di mercato, dice Schneier. Ciò
significa apertura e trasparenza, abbinate alla capacità di rispondere alle
richieste del pubblico. Dovrebbe anche essere disponibile, quest’intelligenza artificiale, a chiunque per
costruirci sopra. Ciò significa accesso universale, e costituisce una base per un libero
mercato delle innovazioni nell’intelligenza artificiale. Tutto questo sarebbe un
contrappeso all’intelligenza artificiale di proprietà delle aziende.
Il saggio di Schneier si conclude con questa riflessione:
Non potremo mai trasformare le intelligenze artificiali in nostri amici, ma possiamo trasformarle in
servizi affidabili e non doppiogiochisti. Però possiamo farlo solo se il
governo lo impone. Perché lo scopo del governo è creare fiducia sociale. Nella
misura in cui un governo migliora la fiducia generale nella società, ha
successo. E nella misura in cui non lo fa, fallisce. Abbiamo bisogno di un
governo per limitare il comportamento delle aziende e delle intelligenze artificiali che le aziende
costruiscono, distribuiscono e controllano. Il governo deve imporre sia prevedibilità che affidabilità.
È così che possiamo creare la fiducia sociale di cui la società ha bisogno per
prosperare.
– Bruce Schneier, AI and Trust, dicembre 2023