Con una breve occhiata a un singolo volto, i nuovi software di riconoscimento facciale sono ora in grado di classificare il genere di molti uomini e donne con notevole precisione.

Ma se quel volto appartiene a una persona transgender, questi sistemi sbagliano più di un terzo delle volte, secondo una nuova ricerca dell’Università del Colorado Boulder.

“Abbiamo scoperto che i servizi di analisi facciale hanno ottenuto risultati sempre peggiori con gli individui transgender e non sono stati in grado di classificare i generi non binari”, ha dichiarato l’autore principale Morgan Klaus Scheuerman, dottorando presso il dipartimento di Scienze dell’Informazione. “Mentre ci sono molti tipi diversi di persone là fuori, questi sistemi hanno una visione estremamente limitata dell’aspetto del genere”.*

  • gmg@beehaw.org
    link
    fedilink
    Italiano
    arrow-up
    1
    ·
    1 year ago

    Err… sbaglio anch’io?

    Intendiamoci: che i dati usati per il machine learning siano abbiano un bias verso bianco/etero/etc. è un fatto noto (e a quanto gravemente discriminatorio? personalmente sarei contento se la “IA” non fosse capace di identificarmi), ed è noto (e, questo sì, indiscutibilmente grave) che persone LGBTetc siano ingiustamente discriminate… ora però mettere assieme le due cose mi pare un po’ forzato…

    Come si può pretendere che una “AI” sia in grado di classificare le preferenze sessuali in base all’aspetto di una persona? Capisco che potrebbe riconoscere la stereotipica checca (come posso riconoscerla io), ma… non è che le persone LGBTetc siano in generale diverse dalle altre.

    E poi… anche fosse possibile/sensato, per quale fine non discriminatorio potrebbe essere utile una “AI” del genere?