Il funzionamento delle odierne IA basate sul modello del machine learning rende disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa diretta o indiretta di un certo trattamento svantaggioso. Si sosterrà che detta difficoltà non costituisce di per sé motivo sufficiente per vietare l’impiego di sistemi di IA come strumento di supporto informativo delle decisioni umane, e che i timori legati alle c.d. “discriminazioni algoritmiche” più fondati sono quelli relativi all’eventualità che certe decisioni produttive di effetti giuridici assai incisivi sulla vita degli individui vengano adottate col supporto di sistemi di IA che sbagliano, nel senso che non sono in grado di profilare attendibilmente i singoli per via di dati incompleti, obsoleti o biased, di errori nella costruzione degli algoritmi, nonché da limitazioni al loro uso ispirate, paradossalmente, dall’intento di evitare effetti discriminatori.

Intelligenza artificiale, profilazione e nuove forme di discriminazione

Gianmarco Gometz
2022-01-01

Abstract

Il funzionamento delle odierne IA basate sul modello del machine learning rende disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa diretta o indiretta di un certo trattamento svantaggioso. Si sosterrà che detta difficoltà non costituisce di per sé motivo sufficiente per vietare l’impiego di sistemi di IA come strumento di supporto informativo delle decisioni umane, e che i timori legati alle c.d. “discriminazioni algoritmiche” più fondati sono quelli relativi all’eventualità che certe decisioni produttive di effetti giuridici assai incisivi sulla vita degli individui vengano adottate col supporto di sistemi di IA che sbagliano, nel senso che non sono in grado di profilare attendibilmente i singoli per via di dati incompleti, obsoleti o biased, di errori nella costruzione degli algoritmi, nonché da limitazioni al loro uso ispirate, paradossalmente, dall’intento di evitare effetti discriminatori.
2022
discriminazione; algoritmi; profilazione; intelligenza artificiale; discriminazione statistica; discriminazione algoritmica
File in questo prodotto:
File Dimensione Formato  
2022_NS_Gometz PUBBLICATO.pdf

accesso aperto

Tipologia: versione editoriale
Dimensione 381.51 kB
Formato Adobe PDF
381.51 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11584/344721
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact