Questo saggio nasce con l’intento di mostrare la rilevanza di una riflessione che ponga in relazione e dialogo la letteratura sviluppata nell’ambito dell’etica dell’intelligenza artificiale (IA) e la letteratura contemporanea sul progresso morale, inteso nella sua dimensione più collettiva.,Infatti, negli ultimi decenni, nell’ambito della filosofia morale e, in particolare, delle etiche applicate, si è osservato lo sviluppo di un ampio corpo di letteratura che si è interrogato sulla bontà dell’impatto dei più recenti progressi tecnologici, nell’ambito dell’IA, sul benessere umano; progressi di cui facciamo esperienza quotidiana nelle nostre società informazionali contemporanee in seguito all’applicazione e all’uso pervasivo di tecnologie digitali di informazione e di comunicazione (ICT) basate, in misura crescente, su algoritmi di apprendimento automatico (machine learning) e profondo (deep learning). Se, da un lato, sia molto fervente il dibattito che enfatizza le opportunità e i benefici sollevati dai sistemi di IA e dalle ICT basate su algoritmi sulle molteplici dimensioni, pratiche, ambiti e aspetti chiave della vita umana; dall’altro lato, anche la letteratura filosofica che esamina gli effetti controversi, i rischi, le implicazioni etiche e le questioni morali che tali sistemi sollevano sia a livello individuale, sia a livello collettivo, è in rapido aumento. Tuttavia, in questa crescente letteratura sul tema, un’indagine etica che vagli se – e, nel caso, come – il cosiddetto progresso tecnologico generato dai più recenti avanzamenti nel campo dell’IA, che ritroviamo nelle numerose applicazioni basate su tecniche algoritmiche di machine learning (ML) e deep learning (DL), stia promuovendo o, invece, ostacolando il progresso morale, inteso nella sua dimensione più collettiva, è ancora completamente assente nelle riflessioni contemporanee, sia sul progresso morale, sia nell’ambito dell’etica dell’IA. Questo articolo si propone di colmare questa lacuna e porsi come precursore del dibattito sulla relazione tra IA e progresso morale. Nello specifico, questo articolo mira a illuminare come l’attuale progettazione dei sistemi di IA e, in particolare, dei modelli algoritmici che regolano il funzionamento delle nostre più diffuse ICT, possa incidere in modo negativo sulle condizioni ritenute necessarie, ma non sufficienti, al progresso morale, con conseguenze eticamente controverse per la fioritura morale degli individui e delle nostre società contemporanee. A tal fine il saggio si struttura in tre sezioni. La prima sezione chiarisce il particolare concetto di progresso morale a cui ci riferiamo nella nostra indagine etica, ponendo enfasi su una delle teorie più accreditate nel dibattito contemporaneo, la concezione bioculturale di Buchanan e Powell, e sulle condizioni che da questa emergono come sine qua non al progresso morale, sia per la possibilità di ulteriore o futuro progresso morale, sia per la tutela da forme di regresso morale, rappresentate dalla perdita di conquiste morali di cui godiamo nel presente. La seconda sezione argomenta come i sistemi di IA e, in particolare, le tecniche algoritmiche oggi più diffuse, come attualmente progettate, possono incidere in modo negativo su alcune delle condizioni sine qua non al progresso morale. Un focus specifico è qui dedicato all’analisi di come tali tecniche possano minare una conditio sine qua non chiave al progresso morale, l’esercizio aperto e diffuso del ragionamento morale, e così promuovere una graduale atrofia del ragionamento morale a livello sia individuale sia collettivo. Infine, la terza sezione conclude il saggio con un appello a considerare nel design dei sistemi di IA gli studi sulle condizioni abilitanti il progresso morale, nonché come tali sistemi possano incidere su di esse e con quali rischi, avanzando la possibilità di pensare ai sistemi di IA come strumenti non solo di tutela, ma anche di promozione del progresso morale.

Intelligenza artificiale e progresso morale

S. Tiribelli
2023-01-01

Abstract

Questo saggio nasce con l’intento di mostrare la rilevanza di una riflessione che ponga in relazione e dialogo la letteratura sviluppata nell’ambito dell’etica dell’intelligenza artificiale (IA) e la letteratura contemporanea sul progresso morale, inteso nella sua dimensione più collettiva.,Infatti, negli ultimi decenni, nell’ambito della filosofia morale e, in particolare, delle etiche applicate, si è osservato lo sviluppo di un ampio corpo di letteratura che si è interrogato sulla bontà dell’impatto dei più recenti progressi tecnologici, nell’ambito dell’IA, sul benessere umano; progressi di cui facciamo esperienza quotidiana nelle nostre società informazionali contemporanee in seguito all’applicazione e all’uso pervasivo di tecnologie digitali di informazione e di comunicazione (ICT) basate, in misura crescente, su algoritmi di apprendimento automatico (machine learning) e profondo (deep learning). Se, da un lato, sia molto fervente il dibattito che enfatizza le opportunità e i benefici sollevati dai sistemi di IA e dalle ICT basate su algoritmi sulle molteplici dimensioni, pratiche, ambiti e aspetti chiave della vita umana; dall’altro lato, anche la letteratura filosofica che esamina gli effetti controversi, i rischi, le implicazioni etiche e le questioni morali che tali sistemi sollevano sia a livello individuale, sia a livello collettivo, è in rapido aumento. Tuttavia, in questa crescente letteratura sul tema, un’indagine etica che vagli se – e, nel caso, come – il cosiddetto progresso tecnologico generato dai più recenti avanzamenti nel campo dell’IA, che ritroviamo nelle numerose applicazioni basate su tecniche algoritmiche di machine learning (ML) e deep learning (DL), stia promuovendo o, invece, ostacolando il progresso morale, inteso nella sua dimensione più collettiva, è ancora completamente assente nelle riflessioni contemporanee, sia sul progresso morale, sia nell’ambito dell’etica dell’IA. Questo articolo si propone di colmare questa lacuna e porsi come precursore del dibattito sulla relazione tra IA e progresso morale. Nello specifico, questo articolo mira a illuminare come l’attuale progettazione dei sistemi di IA e, in particolare, dei modelli algoritmici che regolano il funzionamento delle nostre più diffuse ICT, possa incidere in modo negativo sulle condizioni ritenute necessarie, ma non sufficienti, al progresso morale, con conseguenze eticamente controverse per la fioritura morale degli individui e delle nostre società contemporanee. A tal fine il saggio si struttura in tre sezioni. La prima sezione chiarisce il particolare concetto di progresso morale a cui ci riferiamo nella nostra indagine etica, ponendo enfasi su una delle teorie più accreditate nel dibattito contemporaneo, la concezione bioculturale di Buchanan e Powell, e sulle condizioni che da questa emergono come sine qua non al progresso morale, sia per la possibilità di ulteriore o futuro progresso morale, sia per la tutela da forme di regresso morale, rappresentate dalla perdita di conquiste morali di cui godiamo nel presente. La seconda sezione argomenta come i sistemi di IA e, in particolare, le tecniche algoritmiche oggi più diffuse, come attualmente progettate, possono incidere in modo negativo su alcune delle condizioni sine qua non al progresso morale. Un focus specifico è qui dedicato all’analisi di come tali tecniche possano minare una conditio sine qua non chiave al progresso morale, l’esercizio aperto e diffuso del ragionamento morale, e così promuovere una graduale atrofia del ragionamento morale a livello sia individuale sia collettivo. Infine, la terza sezione conclude il saggio con un appello a considerare nel design dei sistemi di IA gli studi sulle condizioni abilitanti il progresso morale, nonché come tali sistemi possano incidere su di esse e con quali rischi, avanzando la possibilità di pensare ai sistemi di IA come strumenti non solo di tutela, ma anche di promozione del progresso morale.
2023
9788846765529
File in questo prodotto:
File Dimensione Formato  
SIFM_2023 Tiribelli.pdf

solo utenti autorizzati

Descrizione: Articolo
Tipologia: Versione editoriale (versione pubblicata con il layout dell'editore)
Licenza: Copyright dell'editore
Dimensione 133.41 kB
Formato Adobe PDF
133.41 kB Adobe PDF   Visualizza/Apri   Richiedi una copia

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11393/312074
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact