Dematerializzare genere e religioni. Intelligenza artificiale, bias, discriminazioni | 25/07/2023

Поділитися
Вставка
  • Опубліковано 25 лип 2023
  • Seminario internazionale FBK-ISR 2023
    Con questa premessa nel dicembre 2022 la European Union Agency for Fundamental Rights ha pubblicato il Report “Bias in Alghoritms - Artificial Intelligence and Discrimination”, uno studio sul funzionamento pratico dei modelli algoritmici nei settori dell’offensive speech detection e della predictive policing. Ne emerge un quadro in cui l’incontro tra il comportamento umano e quello della macchina rivela questioni essenziali per il contrasto alle discriminazioni e per la tutela dei diritti fondamentali. Ciò è particolarmente vero per alcuni profili dell’identità individuale meritevoli di protezione, come l’appartenenza di genere, l’orientamento sessuale e le origini etnico - religiose.
    Se la proiezione dei comportamenti umani nella sfera del digitale evidenzia pregiudizi culturali o stereotipi diffusi, la qualità dei dati per l’addestramento degli algoritmi nelle tecniche predittive e la ricerca di bias nelle metodologie di apprendimento automatico e di elaborazione del linguaggio naturale costituiscono il nodo per la produzione di tecnologie più giuste. Più diritti umani rendono
    l’intelligenza artificiale non solo più affidabile, ma anche più attraente. Non investire in tal senso costituisce un’ipotesi accettabile?
    Speaker: Ilaria Valenzi (ISR-FBK)
    Coordinamento scientifico:
    Massimo Leone, Direttore FBK-ISR

КОМЕНТАРІ •