Introduzione
Le rappresentazioni dell’intelligenza artificiale nella letteratura fantascientifica e, soprattutto, nel
cinema, condizionano ancora oggi fortemente l’immaginario collettivo. L’IA viene raffigurata co-
me una forza misteriosa e futuristica, ma soprattutto minacciosa, incarnata da robot pesantemente
armati che si rivoltano contro i loro creatori umani o da supercomputer subdoli.
Figura 1: L’“occhio” di HAL 9000 nel film 2001: Odissea nello spazio di Stanley Kubrick (1968), scritto
assieme ad Arthur C. Clarke. Il supercomputer di bordo dell’astronave Discovery ` e dotato di un’intelligenza
artificiale estremamente evoluta. (Immagine: Warner Bros.)
In realt` a, l’IA non ` e pi` u fantascienza, ed ` e presente in molti aspetti della vita quotidiana, dalle
raccomandazioni dei prodotti online ai sistemi di riconoscimento vocale, dalle diagnosi di malat-
tie alla gestione degli investimenti finanziari. Negli ultimi anni, l’IA ha conosciuto un progresso
straordinario, ed ` e attualmente al centro dell’innovazione tecnologica.
Considerando l’impatto sempre maggiore che, con ogni probabilit` a, avr` a sulla societ` a, diventa evi-
dente la necessit` a di analizzare con attenzione il significato di questo cambiamento in termini etici.
L’evoluzione, che pare essere esponenziale, di questa tecnologia, mette di fatto l’uomo di fronte a
una nuova era, con potenzialit` a inedite rispetto al passato.
Ci troviamo, forse, ad un bivio significativo che ricorda l’odissea di Arthur C. Clarke, di fronte
al monolite dell’intelligenza artificiale.
`
E nostra responsabilit` a muoverci con attenzione in questo
momento, per garantire che l’IA sia ulteriormente sviluppata e utilizzata in modo da promuovere
il bene comune e il progresso umano. Come emerge gi` a nell’attualit` a, l’IA pu` o essere utilizzata
1
in maniera maliziosa o inconsapevole, e come ogni altra tecnologia pu` o portare grandi benefici
all’umanit` a oppure essere distruttiva in modi spesso imprevedibili. Equilibrare l’innovazione tec-
nologica, che forse ` e inarrestabile, con la consapevolezza degli impatti sulla societ` a, ` e dunque di
essenziale importanza.
Figura 2: Nel film di Kubrick, l’enigmatico monolite simboleggia una nuova era dell’evoluzione umana.
(Immagine: Everett Collection)
Obiettivo del presente lavoro ` e analizzare l’impatto dell’adozione di sistemi basati sull’IA su
individui e comunit` a, in relazione soprattutto alle questioni etiche emergenti e con un’attenzione
particolare alle ripercussioni sulla democrazia. Si vuole fornire un quadro complessivo rilevante e
informativo, attraverso lo studio di materiale quanto pi` u possibile recente e aggiornato.
Nel primo capitolo viene brevemente introdotta l’intelligenza artificiale, sia dal punto di vista
storico che tecnico. Viene sottolineata l’importanza delle implicazioni etiche e sociali date dal-
l’utilizzo sempre pi` u frequente e rilevante nella societ` a contemporanea, e sono nominate alcune
vantaggiose potenzialit` a per quel che riguarda ad esempio la cura di malattie e la lotta al cambia-
mento climatico. Sono poi discussi i concetti di equit` a, affidabilit` a e trasparenza, di fondamentale
importanza per lo sviluppo e l’implementazione responsabile dell’IA. Infine, viene approfondito il
problema del bias algoritmico, che causa soprattutto problemi di discriminazione dettata dal sessi-
smo e dal razzismo.
Nel secondo capitolo viene introdotto il ruolo centrale dell’IA nell’elaborazione dei dati. Vengono
discusse la profilazione degli utenti e la personalizzazione dei contenuti. Emergono gravi proble-
matiche legate alla violazione della privacy. Viene approfondito l’uso dell’IA nella sorveglianza
di massa, in particolare nel sistema di Social Credit Score cinese e nel tracciamento del Covid-19
durante la pandemia. Viene evidenziato, in questo modo, che l’IA pu` o mettere a rischio i prin-
cipˆ ı democratici, anche attraverso una breve esposizione della “cittadinanza cibernetica”. Emerge
2
ancora una volta la necessit` a di riflettere sui delicati equilibri che devono esistere tra innovazione
tecnologica, privacy, sicurezza e diritti del cittadino.
Il terzo capitolo ` e incentrato sul rapporto che sussiste tra democrazia, media (in particolare, media
digitali e social media) e IA. In particolare, emerge come l’elaborazione algoritmica dei dati porti a
fenomeni come le filter bubble e le echo chamber, che rendono polarizzato e conflittuale il dibattito
pubblico. In seguito, ` e messo in luce il ruolo dell’IA nella diffusione di disinformazione, e come il
controllo e la manipolazione delle informazioni (dall’hypernudging al microtargeting) siano causa
di nuove forme di ingiustizia sociale e rappresentino delle minacce per la democrazia. Infine, sono
presentati alcuni modi in cui l’IA potrebbe rafforzare i sistemi democratici, come la democrazia
aumentata.
3
Capitoloprimo
Nel presente capitolo viene introdotta l’intelligenza artificiale e sottolineata l’importanza delle re-
lative implicazioni etiche e sociali dato il suo utilizzo sempre pi` u frequente e rilevante nella societ` a
contemporanea. Ci si concentra, in particolare, sui concetti di equit` a, affidabilit` a e trasparenza
dell’intelligenza artificiale, che sono di fondamentale importanza nello sviluppo e nell’implemen-
tazione responsabile di questa tecnologia. In seguito, viene approfondita la questione del bias
algoritmico, che rappresenta un rischio soprattutto nei processi decisionali automatizzati. Infine,
vengono presentati diversi esempi concreti di applicazione problematica dell’intelligenza artificiale
con bias.
1.1 Breve introduzione all’intelligenza artificiale e alcune questioni di rile-
vanza attuale
Secondo la definizione adottata dalla Commissione Europea (2018), “l’intelligenza artificiale si
riferisce a sistemi che mostrano comportamenti intelligenti mediante l’analisi del loro ambiente
e l’esecuzione di azioni – con un certo grado di autonomia – per raggiungere obiettivi specifici”
1
. La storia dell’Intelligenza Artificiale (IA) si fa risalire ad Alan Turing, che nel 1950 apre il suo
articolo Computing machinery and intelligence chiedendosi se una macchina pu` o pensare
2
. Turing
considera questa una questione priva di senso e non degna di discussione, e preferisce soffermarsi
sulla capacit` a di un computer di eseguire il “gioco dell’imitazione” (pi` u comunemente conosciuto
come “test di Turing”)
3
. Ritiene inoltre vicino l’avvento di computer digitali in grado di eccellere
in questo compito
4
. A causa di limitazioni dovute all’inadeguatezza della tecnologia del tempo
(a partire dal fatto che non ` e ancora possibile gestire velocemente enormi quantit` a di dati), dopo
l’iniziale entusiasmo segue un periodo caratterizzato da un brusco arresto dello sviluppo dell’IA
che va dagli anni Settanta agli anni Novanta. La ripresa, detta “primavera dell’IA”, si ha solo a
partire dal 2012. L’interesse riguarda soprattutto il machine learning
5
, e porta, grazie a ingenti
1
P. N. Boucher, Artificial intelligence: How does it work, why does it matter, and what can we do about it?, Belgio,
EPRS: European Parliamentary Research Service, 2020, p.1.
2
Cfr. V . Bellini, M. Cascella, F. Cutugno, M. Russo, R. Lanza, C. Compagnone, E. G. Bignami, Understanding
basic principles of Artificial Intelligence: a practical guide for intensivists, in Acta Biomed , 2022.
3
Cfr, R. Epstein, G. Roberts, G. Beber, Parsing the Turing test, Dordrecht, Springer, 2009, p. 23-24.
4
Cfr. G. Oppy, D. Dowe, The Turing Test, 2003, in The Stanford Encyclopedia of Philosophy , edizione inverno
2021.
5
Cfr. R. Bommasani, AI Spring? Four Takeaways from Major Releases in Foundation Models, Stanford Institute
for Human-Centered Artificial Intelligence, 2023, https://hai.stanford.edu/news/ai-spring-four-takeaways-major-relea
ses-foundation-models (ultimo accesso 18.08.2023).
5
finanziamenti e investimenti, all’attuale “boom dell’AI”
1
.
Importanti cambiamenti paradigmatici che hanno reso possibile il superamento del symbol
grounding e quindi la nascita di Large Language Models (LLM)
2
quali PaLM di Google e GPT
di OpenAI (quest’ultimo alla base di ChatGPT) riguardano il passaggio alla semantica distribuzio-
nale. Il significato viene rappresentato non pi` u in maniera formale, quindi discreta, ma attraverso
vettori. Ci` o rende possibile, dal momento che l’informazione viene rappresentata attraverso nume-
ri, l’integrazione di dati di varia natura (per esempio, di parole scritte e di immagini), e quindi la
nascita dei modelli multimodali e generativi
3
grounded.
Nel marzo 2023, il Future of Life Institute ha pubblicato una lettera intitolata Pause Giant
AI Experiments: An Open Letter, invitando a sospendere per almeno sei mesi l’addestramento di
sistemi di intelligenza artificiale pi` u potenti di GPT-4. La petizione ` e stata firmata da numerosi
ricercatori e amministratori delegati del settore, tra cui Stuart Russell, Elon Musk e Steve Wozniak.
Afferma che gli attuali LLM stanno mostrando segni di intelligenza generale (Artificial General
Intelligence, o AGI, in riferimento all’intelligenza artificiale in grado di svolgere svariati task e
quindi meno specializzata e pi` u simile a quella umana), il che rappresenta un rischio per l’umanit` a.
Affinch´ e tale rischio venga contenuto, si chiede di riorientare la ricerca secondo un’ottica basata
sulla sicurezza e non sul profitto, e si raccomanda una maggiore attenzione alla regolamentazione
governativa
4
.
Anche Geoffrey Hinton, considerato il padre dell’IA per i suoi contributi nel campo delle reti neu-
rali e del deep learning, si ` e mostrato preoccupato dello sviluppo incontrollato dell’IA
5
, e l’am-
ministratore delegato di OpenAI Sam Altman, a maggio del 2023, ha testimoniato al Congresso,
esprimendo la necessit` a di affrontare la minaccia rappresentata dallo sviluppo di ChatGPT e di al-
tri strumenti simili attraverso un’adeguata regolamentazione legislativa
6
, in quanto “[...] i recenti
sviluppi potrebbero essere pi` u trasformativi di internet – o rischiosi quanto la bomba atomica”
7
.
Naturalmente, l’IA non rappresenta solamente un rischio, ma ha enormi vantaggiose poten-
zialit` a, e un suo utilizzo proficuo potrebbe risolvere importanti questioni, ad esempio per quel che
concerne la cura di malattie, la cybersecurity o la lotta al cambiamento climatico. Sebbene ne esi-
1
https://www.analyticsinsight.net/navigating-the-ai-winter-lessons-from-the-past/ (ultimo accesso 18.08.2023).
2
Cfr. D. Coelho Mollo, R. Milli` ere, The Vector Grounding Problem, in ArXiv preprint , 2023.
3
Cfr. G. Boleda, Distributional semantics and linguistic theory, in Annual Review of Linguistics , vol. VI,
gennaio 2020, pp. 213-234.
4
https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (ultimo accesso 16.08.2023).
5
https://mitsloan.mit.edu/ideas-made-to-matter/why-neural-net-pioneer-geoffrey-hinton-sounding-alarm-ai (ulti-
mo accesso 16.08.2023).
6
https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html (ultimo
accesso 16.08.2023).
7
https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-congress-hearing/ (ultimo acces-
so 16.08.2023).
6