- Arresti ingiustificati, discriminazioni nella selezione dei curriculum e altro ancora: a fare le spese dei bias dell’intelligenza artificiale sono sempre le donne e le minoranze
- Nella maggior parte dei casi, il problema sta tutto nel database usato per l’addestramento, costituito da dati in cui sono inevitabilmente incorporati i pregiudizi della società
- Gli stessi problemi si sono verificati recentemente anche con sistemi di ultima generazione come ChatGPT o Dall-E 2. E allora che cosa si può fare?
L’intelligenza artificiale ha imparato a essere razzista e sessista


26 marzo 2023 • 18:52