Il funzionamento delle odierne IA basate sul modello del machine learning rende alquanto disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa di un certo trattamento svantaggioso. Se tuttavia i dati di addestramento e gli algoritmi delle IA sono disponibili, v’è talora la possibilità di rieseguire questi ultimi per verificare se avrebbero prodotto gli stessi output qualora i soggetti considerati fossero stati di razza, sesso, religione, orientamento sessuale ecc. diversi, invalidando le decisioni fondate sulla considerazione di elementi che la legge vieta di porre alla base di disparità di trattamento produttive di svantaggi per gli interessati. I costi di questo approccio diventano però estremamente onerosi, e forse insostenibili, quando gli elementi utilizzati dal sistema per elaborare le proprie previsioni non sono ricavati da dataset “statici”, bensì da ingenti flussi di dati continuamente aggiornati.

Discriminazioni algoritmiche?

Gianmarco Gometz
2022-01-01

Abstract

Il funzionamento delle odierne IA basate sul modello del machine learning rende alquanto disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa di un certo trattamento svantaggioso. Se tuttavia i dati di addestramento e gli algoritmi delle IA sono disponibili, v’è talora la possibilità di rieseguire questi ultimi per verificare se avrebbero prodotto gli stessi output qualora i soggetti considerati fossero stati di razza, sesso, religione, orientamento sessuale ecc. diversi, invalidando le decisioni fondate sulla considerazione di elementi che la legge vieta di porre alla base di disparità di trattamento produttive di svantaggi per gli interessati. I costi di questo approccio diventano però estremamente onerosi, e forse insostenibili, quando gli elementi utilizzati dal sistema per elaborare le proprie previsioni non sono ricavati da dataset “statici”, bensì da ingenti flussi di dati continuamente aggiornati.
2022
discrimination; algorithms; profiling; artificial intelligence; statistical discrimination; algorithmic discrimination
discriminazione; algoritmi; profilazione; intelligenza artificiale; discriminazione statistica; discriminazione algoritmica
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11584/351438
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact