The thesis analyses civil products liability from a comparative law perspective, considering the two principal western models, the United States and the European Union, and focuses on how they deal with the issues arising from the interaction between these rules and new technologies, especially artificial intelligence. Although the definition of “artificial intelligence” comprises many techniques developed from the second half of the last century, the most interesting -and problematic- are deep learning and machine learning. These allow products to “learn” on the basis of data that are given in the training phase, in order to enable the products to “take their own decisions” in future and unprecedented situations. The functioning of these technologies is difficult (if not impossible) to explain, thus many have talked about a “black box”, as even those who develop the product are not able to explain its behaviour in some situations. Nowadays artificial intelligence is used to develop more and more “smart” products (i.e. household appliances, driverless cars, robots…). Therefore, many have questioned the applicability of traditional rules of civil liability to these products. In the thesis it is argued that the principal categories of products liability could be interpreted to include products implementing artificial intelligence techniques. In fact, the definition of “product” under the products liability regime could be extended to include non-embedded software (both traditional and artificial intelligence ones), which could be considered defective just like any other traditional product when it does not offer the safety that consumers are entitled to expect. Through interpretation, it could be held that the other categories of products liability are compatible with the way artificial intelligence works, such as the risk development, which applies when the defect was not discoverable due to the state of the scientific and technological knowledge at the time the product was distributed. Anyway, the extensive interpretation of the rules of products liability could be difficult, also considering that differences in the interpretation could easily arise, and this can be problematic, especially in the European Union, where the legal framework is harmonised through the Directive 374/1985/EEC. Thus, in September 2022, the European Commission presented a proposal for a new directive aimed at regulating products liability. To date, the European Institutions have reached an agreement on the final text of the directive in the trilogues, but the official text agreed upon has not been published yet. Hence, the thesis only focuses on the text proposed by the Commission, as amended by the Council and the Parliament. Although there are many questionable parts in the proposal, the choice of adopting a new directive is positive as it clarifies its applicability to “intelligent” products, while updating the rules to make them compatible with the new generation of products. Meanwhile, the approach is completely different in some Common law systems, namely the United Stated and the United Kingdom. Following Brexit, the United Kingdom is not obliged to implement the new European legislation which will be adopted soon. Neither are there any legislative initiatives to reform the section of the Consumer Protection Act 1987 implementing the Directive of 1985. In fact, the UK Government is following a so-called pro innovation approach, avoiding legislating on artificial intelligence at least for the moment, pursuing the idea that statute law would deter investments for innovation. In this framework, the UK Government devolves to regulators the task of regulating artificial intelligence. Similarly, in the United States there is no federal statute law concerning artificial intelligence. It must also be noted that tort law -and thus products liability- is disciplined by States and case law, so it is understandable why there are no federal rules on this topic, although not even States have adopted specific laws to clarify whether products liability is applicable to artificial intelligence or not. The federal Government prefers to delegate to federal agencies the implementation of guidelines and best practices that are mostly non-binding for private citizens. In the United States, differently from the United Kingdom, there is some case law which deals with the applicability of products liability to “intelligent” products. From these decisions, it can be seen that courts tend to deny the applicability of these rules to non-embedded software because the Third Restatement of Tort Law on Products Liability defines a “product” as a “tangible personal property”, which, according to the interpretation of courts, does not include non-embedded software. However, considering how fast modern technologies evolve and the fact that more and more products embed artificial intelligence, it is feasible that standards and guidelines, which are mostly non-binding, will not be sufficient, as they can be useful to prevent the damage but not to allocate liability after a damage occurs. It is likely that even in these systems a clearer action will be required to address the issue of products liability for “intelligent” products.

Il presente lavoro analizza il tema della responsabilità civile del produttore in un’ottica comparatistica, esaminando i due modelli occidentali principali, ossia quello degli Stati Uniti e quello europeo, concentrandosi altresì sulle problematiche che emergono dall’applicazione delle categorie tradizionali di questa responsabilità alle nuove tecnologie, segnatamente quelle di intelligenza artificiale. Benché l’espressione “intelligenza artificiale” ricomprenda molte tecniche sviluppate a partire dalla metà del secolo scorso in poi, le più interessanti, nonché problematiche per lo studioso del diritto, sono quelle di machine learning e deep learning. Queste, infatti, permettono agli applicativi di “imparare” sulla base dei dati che vengono forniti nella fase di addestramento, in modo tale da poter poi “prendere delle decisioni” in situazioni future e inedite. Il funzionamento di queste tecnologie è opaco, tanto che in alcuni casi si parla di una vera e propria “black box”, in quanto neanche coloro che hanno sviluppato il programma sono in grado di spiegare perché esso si sia comportato in un certo modo in una determinata situazione. Dato che oramai tecniche di intelligenza artificiale iniziano ad essere incluse in sempre più prodotti (basti pensare agli elettrodomestici delle c.d. smart home, ai veicoli a guida autonoma o ai robot utilizzati in vari ambiti), ci si è posti il problema della compatibilità tra gli istituti tradizionali e queste nuove tecnologie. A fronte di ciò, dall’analisi svolta emerge che le categorie principali della responsabilità del produttore potrebbero essere interpretate in modo da comprendere anche i prodotti che implementano tecniche di intelligenza artificiale. Ad esempio, la definizione di “prodotto” potrebbe essere estesa in modo da includere anche i software (tradizionali e di intelligenza artificiale) non incorporati in altri beni mobili, i quali possono altresì essere considerati difettosi alla stregua dei prodotti tradizionali nel momento in cui non sono all’altezza delle legittime aspettative del consumatore medio. Con un altro sforzo interpretativo, si possono ritenere compatibili col funzionamento dell’intelligenza artificiale anche altre categorie della responsabilità del produttore, come ad esempio la causa di esclusione della responsabilità nel caso di c.d. rischio di sviluppo, che si ha quando il difetto non era identificabile tenuto conto dello stato delle conoscenze scientifiche e tecniche al momento in è stato messo in circolazione il prodotto. Ad ogni modo, l’interpretazione estensiva della disciplina non è esente da difficoltà, senza contare che potrebbe comunque emergere una certa disomogeneità di applicazioni in una materia che nell’Unione Europea dovrebbe essere uniforme, essendo regolata dalla Direttiva 374/1985/CEE. Pertanto, a settembre 2022, la Commissione europea ha pubblicato una proposta di nuova direttiva sulla responsabilità da prodotto difettoso. Allo stato attuale ci si è accordati in sede di triloghi sul testo finale, che però non è ancora disponibile, per cui nell’elaborato ci si è dovuti concentrare sul testo della proposta, così come emendato dal Parlamento e dal Consiglio europeo. La disciplina ivi contenuta, benché non esente da criticità, è da accogliersi positivamente in quanto volta ad affermare in modo chiaro l’applicabilità della disciplina ai prodotti “intelligenti”, fugando ogni dubbio residuo al riguardo e aggiornando altresì le varie norme in modo da essere coerenti con la nuova generazione di prodotti. Diametralmente differente rispetto a quello europeo è invece l’approccio alla regolamentazione dell’intelligenza artificiale da parte degli ordinamenti del Regno Unito e degli Stati Uniti. Per quanto riguarda il Regno Unito, va rilevato che a seguito della Brexit, a fronte di una imminente modifica legislativa europea, non vi sono segnali in ordine ad un’eventuale riforma della sezione del Consumer Protection Act del 1987 in attuazione della Direttiva europea del 1985. Il Governo del Regno Unito, infatti, si ripropone di seguire un approccio volto a supportare l’innovazione tecnologica (c.d. pro-innovation approach), evitando di legiferare in materia in questo momento storico al fine di non disincentivare gli investimenti per l’innovazione. In questo quadro, viene delegata alle singole autorità amministrative indipendenti la regolamentazione delle fattispecie concernenti l’utilizzo di tecniche di intelligenza artificiale. In modo non dissimile, negli Stati Uniti si rifugge lo strumento legislativo, anche in virtù del fatto che la tort law è tendenzialmente di competenza statale, benché neanche tra gli Stati federati si rinvenga una legge volta a specificare l’applicabilità della responsabilità del produttore alle tecnologie di intelligenza artificiale. Per quanto riguarda in generale poi l’approccio alla regolamentazione delle nuove tecnologie, il Governo federale preferisce delegare alle agenzie federali competenti l’implementazione di linee guida e best practice che, tendenzialmente, non sono obbligatorie per i privati. Negli Stati Uniti, poi, differentemente dal Regno Unito, si rinvengono alcune decisioni che si pronunciano sull’applicabilità della disciplina della responsabilità del produttore ai prodotti “intelligenti”, dalle quali pare emergere la tendenza a negare la compatibilità della nozione di prodotto con i software non incorporati in un altro bene mobile, in quanto non compatibili con la nozione di “tangible personal property” proposta nel Third Restatement of Tort Law on Products Liability. Considerando però la velocità con la quale evolvono le tecniche di intelligenza artificiale e il fatto che sempre più prodotti incorporano tali tecnologie, probabilmente non saranno sufficienti standard e linee guida perlopiù non vincolanti, che al massimo possono essere utili in ottica preventiva ma non già nell’allocazione della responsabilità del danno verificatosi. Verosimilmente, dunque, anche in questi ordinamenti sarà necessaria un’azione più chiara in merito all’applicabilità della responsabilità da prodotto difettoso all’intelligenza artificiale.

RESPONSABILITÀ DEL PRODUTTORE E INTELLIGENZA ARTIFICIALE. UN PERCORSO DI COMPARAZIONE GIURIDICA

K. De Blasio
2024-01-01

Abstract

The thesis analyses civil products liability from a comparative law perspective, considering the two principal western models, the United States and the European Union, and focuses on how they deal with the issues arising from the interaction between these rules and new technologies, especially artificial intelligence. Although the definition of “artificial intelligence” comprises many techniques developed from the second half of the last century, the most interesting -and problematic- are deep learning and machine learning. These allow products to “learn” on the basis of data that are given in the training phase, in order to enable the products to “take their own decisions” in future and unprecedented situations. The functioning of these technologies is difficult (if not impossible) to explain, thus many have talked about a “black box”, as even those who develop the product are not able to explain its behaviour in some situations. Nowadays artificial intelligence is used to develop more and more “smart” products (i.e. household appliances, driverless cars, robots…). Therefore, many have questioned the applicability of traditional rules of civil liability to these products. In the thesis it is argued that the principal categories of products liability could be interpreted to include products implementing artificial intelligence techniques. In fact, the definition of “product” under the products liability regime could be extended to include non-embedded software (both traditional and artificial intelligence ones), which could be considered defective just like any other traditional product when it does not offer the safety that consumers are entitled to expect. Through interpretation, it could be held that the other categories of products liability are compatible with the way artificial intelligence works, such as the risk development, which applies when the defect was not discoverable due to the state of the scientific and technological knowledge at the time the product was distributed. Anyway, the extensive interpretation of the rules of products liability could be difficult, also considering that differences in the interpretation could easily arise, and this can be problematic, especially in the European Union, where the legal framework is harmonised through the Directive 374/1985/EEC. Thus, in September 2022, the European Commission presented a proposal for a new directive aimed at regulating products liability. To date, the European Institutions have reached an agreement on the final text of the directive in the trilogues, but the official text agreed upon has not been published yet. Hence, the thesis only focuses on the text proposed by the Commission, as amended by the Council and the Parliament. Although there are many questionable parts in the proposal, the choice of adopting a new directive is positive as it clarifies its applicability to “intelligent” products, while updating the rules to make them compatible with the new generation of products. Meanwhile, the approach is completely different in some Common law systems, namely the United Stated and the United Kingdom. Following Brexit, the United Kingdom is not obliged to implement the new European legislation which will be adopted soon. Neither are there any legislative initiatives to reform the section of the Consumer Protection Act 1987 implementing the Directive of 1985. In fact, the UK Government is following a so-called pro innovation approach, avoiding legislating on artificial intelligence at least for the moment, pursuing the idea that statute law would deter investments for innovation. In this framework, the UK Government devolves to regulators the task of regulating artificial intelligence. Similarly, in the United States there is no federal statute law concerning artificial intelligence. It must also be noted that tort law -and thus products liability- is disciplined by States and case law, so it is understandable why there are no federal rules on this topic, although not even States have adopted specific laws to clarify whether products liability is applicable to artificial intelligence or not. The federal Government prefers to delegate to federal agencies the implementation of guidelines and best practices that are mostly non-binding for private citizens. In the United States, differently from the United Kingdom, there is some case law which deals with the applicability of products liability to “intelligent” products. From these decisions, it can be seen that courts tend to deny the applicability of these rules to non-embedded software because the Third Restatement of Tort Law on Products Liability defines a “product” as a “tangible personal property”, which, according to the interpretation of courts, does not include non-embedded software. However, considering how fast modern technologies evolve and the fact that more and more products embed artificial intelligence, it is feasible that standards and guidelines, which are mostly non-binding, will not be sufficient, as they can be useful to prevent the damage but not to allocate liability after a damage occurs. It is likely that even in these systems a clearer action will be required to address the issue of products liability for “intelligent” products.
2024
36
DIRITTO E INNOVAZIONE
Il presente lavoro analizza il tema della responsabilità civile del produttore in un’ottica comparatistica, esaminando i due modelli occidentali principali, ossia quello degli Stati Uniti e quello europeo, concentrandosi altresì sulle problematiche che emergono dall’applicazione delle categorie tradizionali di questa responsabilità alle nuove tecnologie, segnatamente quelle di intelligenza artificiale. Benché l’espressione “intelligenza artificiale” ricomprenda molte tecniche sviluppate a partire dalla metà del secolo scorso in poi, le più interessanti, nonché problematiche per lo studioso del diritto, sono quelle di machine learning e deep learning. Queste, infatti, permettono agli applicativi di “imparare” sulla base dei dati che vengono forniti nella fase di addestramento, in modo tale da poter poi “prendere delle decisioni” in situazioni future e inedite. Il funzionamento di queste tecnologie è opaco, tanto che in alcuni casi si parla di una vera e propria “black box”, in quanto neanche coloro che hanno sviluppato il programma sono in grado di spiegare perché esso si sia comportato in un certo modo in una determinata situazione. Dato che oramai tecniche di intelligenza artificiale iniziano ad essere incluse in sempre più prodotti (basti pensare agli elettrodomestici delle c.d. smart home, ai veicoli a guida autonoma o ai robot utilizzati in vari ambiti), ci si è posti il problema della compatibilità tra gli istituti tradizionali e queste nuove tecnologie. A fronte di ciò, dall’analisi svolta emerge che le categorie principali della responsabilità del produttore potrebbero essere interpretate in modo da comprendere anche i prodotti che implementano tecniche di intelligenza artificiale. Ad esempio, la definizione di “prodotto” potrebbe essere estesa in modo da includere anche i software (tradizionali e di intelligenza artificiale) non incorporati in altri beni mobili, i quali possono altresì essere considerati difettosi alla stregua dei prodotti tradizionali nel momento in cui non sono all’altezza delle legittime aspettative del consumatore medio. Con un altro sforzo interpretativo, si possono ritenere compatibili col funzionamento dell’intelligenza artificiale anche altre categorie della responsabilità del produttore, come ad esempio la causa di esclusione della responsabilità nel caso di c.d. rischio di sviluppo, che si ha quando il difetto non era identificabile tenuto conto dello stato delle conoscenze scientifiche e tecniche al momento in è stato messo in circolazione il prodotto. Ad ogni modo, l’interpretazione estensiva della disciplina non è esente da difficoltà, senza contare che potrebbe comunque emergere una certa disomogeneità di applicazioni in una materia che nell’Unione Europea dovrebbe essere uniforme, essendo regolata dalla Direttiva 374/1985/CEE. Pertanto, a settembre 2022, la Commissione europea ha pubblicato una proposta di nuova direttiva sulla responsabilità da prodotto difettoso. Allo stato attuale ci si è accordati in sede di triloghi sul testo finale, che però non è ancora disponibile, per cui nell’elaborato ci si è dovuti concentrare sul testo della proposta, così come emendato dal Parlamento e dal Consiglio europeo. La disciplina ivi contenuta, benché non esente da criticità, è da accogliersi positivamente in quanto volta ad affermare in modo chiaro l’applicabilità della disciplina ai prodotti “intelligenti”, fugando ogni dubbio residuo al riguardo e aggiornando altresì le varie norme in modo da essere coerenti con la nuova generazione di prodotti. Diametralmente differente rispetto a quello europeo è invece l’approccio alla regolamentazione dell’intelligenza artificiale da parte degli ordinamenti del Regno Unito e degli Stati Uniti. Per quanto riguarda il Regno Unito, va rilevato che a seguito della Brexit, a fronte di una imminente modifica legislativa europea, non vi sono segnali in ordine ad un’eventuale riforma della sezione del Consumer Protection Act del 1987 in attuazione della Direttiva europea del 1985. Il Governo del Regno Unito, infatti, si ripropone di seguire un approccio volto a supportare l’innovazione tecnologica (c.d. pro-innovation approach), evitando di legiferare in materia in questo momento storico al fine di non disincentivare gli investimenti per l’innovazione. In questo quadro, viene delegata alle singole autorità amministrative indipendenti la regolamentazione delle fattispecie concernenti l’utilizzo di tecniche di intelligenza artificiale. In modo non dissimile, negli Stati Uniti si rifugge lo strumento legislativo, anche in virtù del fatto che la tort law è tendenzialmente di competenza statale, benché neanche tra gli Stati federati si rinvenga una legge volta a specificare l’applicabilità della responsabilità del produttore alle tecnologie di intelligenza artificiale. Per quanto riguarda in generale poi l’approccio alla regolamentazione delle nuove tecnologie, il Governo federale preferisce delegare alle agenzie federali competenti l’implementazione di linee guida e best practice che, tendenzialmente, non sono obbligatorie per i privati. Negli Stati Uniti, poi, differentemente dal Regno Unito, si rinvengono alcune decisioni che si pronunciano sull’applicabilità della disciplina della responsabilità del produttore ai prodotti “intelligenti”, dalle quali pare emergere la tendenza a negare la compatibilità della nozione di prodotto con i software non incorporati in un altro bene mobile, in quanto non compatibili con la nozione di “tangible personal property” proposta nel Third Restatement of Tort Law on Products Liability. Considerando però la velocità con la quale evolvono le tecniche di intelligenza artificiale e il fatto che sempre più prodotti incorporano tali tecnologie, probabilmente non saranno sufficienti standard e linee guida perlopiù non vincolanti, che al massimo possono essere utili in ottica preventiva ma non già nell’allocazione della responsabilità del danno verificatosi. Verosimilmente, dunque, anche in questi ordinamenti sarà necessaria un’azione più chiara in merito all’applicabilità della responsabilità da prodotto difettoso all’intelligenza artificiale.
File in questo prodotto:
File Dimensione Formato  
TESI_De Blasio.pdf

accesso aperto

Descrizione: RESPONSABILITÀ DEL PRODUTTORE E INTELLIGENZA ARTIFICIALE. UN PERCORSO DI COMPARAZIONE GIURIDICA
Tipologia: Tesi di dottorato
Licenza: Creative commons
Dimensione 2.52 MB
Formato Adobe PDF
2.52 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11393/335870
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact