Con una breve occhiata a un singolo volto, i nuovi software di riconoscimento facciale sono ora in grado di classificare il genere di molti uomini e donne con notevole precisione.

Ma se quel volto appartiene a una persona transgender, questi sistemi sbagliano più di un terzo delle volte, secondo una nuova ricerca dell’Università del Colorado Boulder.

“Abbiamo scoperto che i servizi di analisi facciale hanno ottenuto risultati sempre peggiori con gli individui transgender e non sono stati in grado di classificare i generi non binari”, ha dichiarato l’autore principale Morgan Klaus Scheuerman, dottorando presso il dipartimento di Scienze dell’Informazione. “Mentre ci sono molti tipi diversi di persone là fuori, questi sistemi hanno una visione estremamente limitata dell’aspetto del genere”.*

  • QuantumMischief@feddit.it
    link
    fedilink
    Italiano
    arrow-up
    2
    ·
    1 year ago

    Non so se prendersela con il software sia la cosa giusta onestamente, spero che questo lavoro sia uno spunto per il dottorando per migliorare le performance della rete neurale anziché fare polemica del tipo “gli algoritmi sono transfobici!1!”

    • Pare :pace: 🚲 🌞@sociale.network
      link
      fedilink
      arrow-up
      4
      ·
      1 year ago

      @QuantumMischief @Mariolink “Gli algoritmi sono transfobici” sarebbe una sciocchezza…
      “Gli algoritmi sono conservatori” a me sembra calzante.
      Assistiamo in continuazione a scivoloni su algoritmi addestrati con dati troppo parziali; con dati zeppi di idee vetuste…
      Ma se non sono gli algoritmi ad essere transfobici, è l’idea di poter distinguere il genere (binario uomo/donna?) di una persona dall’immagine del suo viso ad essere ideologica, basata su un idea di genere esteriore e non interiore.