Il funzionamento delle odierne IA basate sul modello del machine learning rende disagevole determinare se un certo responso algoritmico posto alla base di scelte, decisioni e policies produttive di effetti giuridici rilevanti per le persone, sia o no censurabile in quanto direttamente o statisticamente discriminatorio, ossia fondato sulla considerazione di una qualche caratteristica protetta dal diritto antidiscriminatorio come ragione, motivo o causa diretta o indiretta di un certo trattamento svantaggioso. Si sosterrà che detta difficoltà non costituisce di per sé motivo sufficiente per vietare l’impiego di sistemi di IA come strumento di supporto informativo delle decisioni umane, e che i timori legati alle c.d. ‘discriminazioni algoritmiche’ più fondati sono quelli relativi all’eventualità che certe decisioni produttive di effetti giuridici assai incisivi sulla vita degli individui vengano adottate col supporto di sistemi di IA che ‘sbagliano’, nel senso che non sono in grado di profilare attendibilmente i singoli per via di dati incompleti, obsoleti o biased, di errori nella costruzione degli algoritmi, nonché da limitazioni al loro uso ispirate, paradossalmente, dall’intento di evitare effetti discriminatori.
The functioning of today’s AI based on the machine learning model makes it difficult to determine whether a certain algorithmic response placed at the basis of choices, decisions and policies that produce legal effects relevant to people, is or is not proscribable as directly or statistically discriminatory, i.e. founded on the consideration of some characteristic protected by the anti-discrimination law as a reason, motive or direct or indirect cause of a certain disadvantageous treatment.
It will be argued that this difficulty does not constitute sufficient reason to prohibit the use of AI systems as an information support tool for human decisions, and that the more well-founded fears related to the socalled ‘algorithmic discriminations’ are those relating to the possibility that certain decisions producing very incisive legal effects on the life of individuals are adopted with the support of AI systems that are ‘wrong’, in the sense that they are not able to reliably profile individuals by way of incomplete, obsolete or biased data, of errors in the construction of algorithms, as well as limitations to their use inspired, paradoxically, by the intent to avoid discriminatory effects.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados