La posizione del Parlamento europeo in merito alla legge sull’intelligenza artificiale (IA) è stata approvata il 14 giugno “e considera solo l’accessibilità nei sistemi di IA ad alto rischio. Tuttavia, alcuni sistemi classificati come “a medio e basso rischio” possono diventare ad alto rischio per le persone con disabilità quando la loro accessibilità non viene considerata”, scrive Andrea Felice sul sito del Forum europeo sulla disabilità (Edf).
Per il Forum rimangono altre sfide significative. In particolare: “La posizione del Parlamento europeo non tutela il diritto di un individuo di ottenere una spiegazione sul motivo per cui un sistema di IA ha preso una determinata decisione: il testo attuale prevede che tale diritto sia applicabile solo ai sistemi classificati come ad alto rischio. Ciò creerà un cosiddetto effetto ‘scatola nera’ che potrebbe impedire alle persone di sapere se sono state discriminate, anche per motivi protetti, come la disabilità- evidenzia Felice- Siamo seriamente preoccupati per il fatto che il Parlamento europeo non abbia vietato l’uso dell’intelligenza artificiale per la profilazione o la valutazione del rischio delle persone nel contesto dell’asilo, della migrazione o della gestione delle frontiere”.
Tuttavia “il Forum europeo sulla disabilità riconosce l’estrema importanza della regolamentazione dell’intelligenza artificiale- si legge nel testo- e accoglie con favore il rafforzamento delle disposizioni sui diritti umani in relazione alla proposta originaria, in particolare: divieto totale del riconoscimento biometrico remoto; un obbligo per i fornitori di modelli fondamentali (come ChatGPT) di essere trasparenti su quali scopi è sicuro utilizzare la loro tecnologia e rivelare quando il contenuto è stato creato da un’IA”.
“Accogliamo con favore questa disposizione – scrive Felice – soprattutto perché le persone con disabilità hanno maggiori probabilità di essere vittime di frode e disinformazione. Notiamo anche che mentre il testo crea il diritto per le persone di presentare reclami alle autorità di controllo (il che è in teoria positivo), le organizzazioni di interesse pubblico non lo sono. Data la complessità dei sistemi di IA, non è sufficiente lasciare che siano gli individui (e i gruppi di individui) a presentare da soli un reclamo.
Chiediamo con forza ai negoziatori del Parlamento europeo- conclude il testo- di difendere i diritti umani e l’accessibilità come fattore abilitante dei diritti delle persone con disabilità durante le prossime discussioni e di garantire che nel testo finale siano presenti forti disposizioni sull’accessibilità per tutti i sistemi”.
[Fonte: SuperAbile – INAIL]


Scrivi un commento