Come i pregiudizi sull'IA ne frenano l'adozione

Immagine frontale di Brad Drysdale
6 minuti di lettura

Pubblicato originariamente su itbrief.com.au

L'intelligenza artificiale (AI) sta già avendo un impatto considerevole sulle aziende di tutti i settori e la sua influenza non mostra segni di rallentamento.

Sono pochi i settori che non sono ancora stati toccati dall'IA.

Tuttavia, se da un lato lo sviluppo e la continua innovazione dell'IA porteranno benefici alle aziende e alla società in generale, dall'altro è importante che ogni potenziale rischio sia gestito in modo appropriato per evitare pregiudizi sull'IA e consentire all'IA di progredire in modo responsabile.

Una ricerca di SnapLogic ha rilevato che lo sviluppo etico e responsabile dell'IA è una delle principali preoccupazioni dei leader IT, con il 94% che ritiene che sia necessario prestare maggiore attenzione alla responsabilità aziendale e all'etica nell'applicazione dell'IA.

Ma non sono solo i professionisti dell'IT e delle imprese a preoccuparsi dell'IA.

Anche i governi, nel tentativo di implementare strategie di IA, stanno chiarendo che la trasparenza e la responsabilità saranno una priorità assoluta.

Il governo del Nuovo Galles del Sud ha recentemente annunciato che lancerà la sua strategia per l'IA nel marzo 2020 e ha promesso che la trasparenza sarà in cima all'agenda.

Non c'è dubbio che le intuizioni offerte dall'IA possano essere molto utili, ma dobbiamo anche riconoscere i suoi limiti nel fornire risposte perfette.

Le preoccupazioni relative alla qualità dei dati, alla sicurezza e alla privacy sono reali e finché non saranno affrontate, il dibattito sulla regolamentazione dell'IA continuerà.

Cosa ostacola l'IA?
Il pregiudizio dell'IA è un ostacolo fondamentale da superare, che si verifica quando un algoritmo fornisce risultati prevenuti a causa di ipotesi errate nel processo di sviluppo.

I pregiudizi dell'IA sono spesso "incorporati" attraverso le preferenze inconsce degli esseri umani che creano il programma o selezionano i dati di addestramento.

I problemi possono essere riscontrati anche durante l'intero processo, ad esempio nella fase di raccolta dei dati, dove le procedure di ponderazione possono portare a conclusioni errate su alcuni set di dati.

La parzialità è un problema reale, dato che ci affidiamo sempre più all'IA e abbiamo già visto emergere casi legali in cui i gruppi hanno imposto la divulgazione di come i processi algoritmici prendono le decisioni.

Un esempio di questo tipo riguardava gli insegnanti che non ricevevano i premi di rendimento.

Hanno ottenuto un risarcimento quando si è capito che l'algoritmo che valutava l'ammissibilità al bonus non teneva conto delle dimensioni delle classi, un fattore che si è rivelato altamente significativo per i risultati degli alunni.

Se non si affrontano ed eliminano i pregiudizi dell'IA, possiamo aspettarci che la fiducia del pubblico nell'IA rimanga un problema e che si moltiplichino le cause legali in quanto le organizzazioni e gli individui cercano di ottenere una completa trasparenza sul modo in cui l'IA prende le decisioni.

Dove si insinuano i pregiudizi nei processi di IA?
Il problema dei pregiudizi dell'IA è che può essere difficile individuare esattamente il punto in cui si insinuano nel sistema. I pregiudizi possono formarsi in qualsiasi fase del processo di apprendimento e non sono sempre legati ai soli dati di addestramento: possono emergere anche durante la raccolta dei dati, la definizione degli obiettivi o la preparazione dei dati per l'addestramento o il funzionamento.

Il processo iniziale di raccolta, selezione e pulizia dei dati è comunemente associato ai pregiudizi dell'IA.

In questa fase iniziale, i pregiudizi possono insorgere se i dati anomali vengono percepiti come irrilevanti e non vengono analizzati in modo approfondito, consentendo l'introduzione accidentale di pregiudizi.

Questo può far sì che alcuni fattori vengano erroneamente favoriti dall'IA, come il sesso.

Ad esempio, se un'azienda di successo a prevalenza maschile utilizza l'IA per selezionare i candidati e l'IA viene addestrata sui CV e sui dati occupazionali degli attuali dipendenti, è probabile che sviluppi un pregiudizio verso gli uomini.

Potrebbe ignorare le candidature femminili per i colloqui, in quanto non si adattano al modello di successo dell'azienda così come esiste attualmente.

È necessario prestare attenzione a questo aspetto, poiché una soluzione semplice come la rimozione del sesso dei dipendenti dai dati di formazione potrebbe non funzionare.

Invece, l'algoritmo di intelligenza artificiale può identificare modelli di hobby a prevalenza maschile come indicatori di dipendenti desiderabili, ad esempio.

Anche la definizione degli obiettivi per un modello di deep learning può essere il punto in cui si formano le distorsioni, ma chi si occupa del processo può evitarlo impostando obiettivi contestuali per generare raccomandazioni in modo accurato.

Infine, i pregiudizi possono essere introdotti anche nella fase di preparazione dei dati per l'elaborazione.

Questo spesso fa sì che alcuni attributi degli algoritmi vengano privilegiati rispetto ad altri.

È fondamentale che questa fase sia completata in modo accurato, poiché la scelta degli attributi da considerare o ignorare avrà un impatto significativo sull'accuratezza dei risultati.

La progettazione di una pipeline di dati in grado di gestire le eccezioni è fondamentale per garantire la disponibilità di dati sufficienti per ottenere buoni risultati di formazione.

Se non sappiamo esattamente da dove derivano i pregiudizi dell'IA, come possiamo prevenirli?

I responsabili delle decisioni IT e aziendali devono essere consapevoli dei possibili pregiudizi e di come l'IA possa essere utilizzata in modo da non incoraggiarli o permetterne l'introduzione accidentale.

I test sono fondamentali: spesso i difetti vengono scoperti solo quando il sistema entra in funzione, quando il problema può diventare molto più difficile da risolvere.

Testare il sistema rispetto alle aspettative man mano che si sviluppa e coinvolgere un gruppo eterogeneo di stakeholder nella valutazione è fondamentale per la sua accuratezza e il suo successo.

Progressi nella lotta alle probabilità di pregiudizio
Quando si tratta di indagare la fonte dei pregiudizi, spesso si scopre che il coinvolgimento umano, che alimenta i sistemi sottostanti, è responsabile dell'introduzione dei pregiudizi.

Tuttavia, una volta individuato e risolto questo problema, gli sviluppatori dovrebbero anche controllare i dati sottostanti per confermare che siano pienamente rappresentativi di tutti i fattori che potrebbero informare la decisione aziendale. Sono stati fatti molti progressi in questo senso: sono stati creati algoritmi in grado di rilevare e ridurre efficacemente i pregiudizi, il che rappresenta un passo significativo nella giusta direzione.

Il regolamento GDPR dell'Unione Europea è un esempio dei tentativi dei governi di evitare gli effetti negativi delle distorsioni dell'IA.

Il GDPR dà ai consumatori il diritto di ottenere una spiegazione di come sono state prese le decisioni automatiche sulla base dei loro dati.

Inoltre, protegge i consumatori in quanto l'IA, e i vari metodi di profilazione per cui viene utilizzata, non possono essere utilizzati come unico decisore in scelte che possono avere un impatto significativo sui diritti o sulle libertà degli individui.

Per esempio, l'intelligenza artificiale da sola non può decidere se una persona è idonea per un prestito bancario.

Promuovere approcci incentrati sui dati
Mentre le industrie cercano di ridurre i rischi potenziali per far progredire l'IA in modo responsabile, è fondamentale che i risultati abilitati dall'IA riflettano dati globali e diversificati.

Ci sono valide preoccupazioni sul fatto che le decisioni dell'IA spesso riflettono i pregiudizi delle culture del primo mondo, che lavorano contro i meno abbienti della società.

Per combattere questo problema, gli sviluppatori devono garantire l'inclusione di input provenienti da dati più ampi, globalizzati e diversificati.

Inoltre, la costruzione di modelli di IA utilizzando dati originali può contribuire a eliminare i pregiudizi, in quanto vi è una maggiore possibilità che idee e prove reali alimentino i sistemi di IA, che possono quindi evolvere per offrire approfondimenti al di là della tipica prospettiva del primo mondo.

Questo approccio guidato dai dati garantirebbe inoltre una maggiore flessibilità e reattività ai sistemi di IA e li esporrebbe a un insieme più completo e diversificato di considerazioni globali.

La strada da seguire è sicuramente quella dell'approccio data-driven, ma a tal fine è importante concentrarsi sullo sviluppo di sistemi che abbattano i silos di dati, consentano una perfetta integrazione dei dati e garantiscano un accesso coerente ai dati e al flusso di informazioni.

Questo è possibile senza dover ricorrere a sviluppatori di software esperti, in quanto esistono sul mercato strumenti intuitivi e self-service in grado di integrare grandi volumi di dati tra sistemi diversi.

I dati sono fondamentali per qualsiasi sistema di intelligenza artificiale e, in ultima analisi, è necessario adottare norme che proteggano dai pregiudizi, ma che consentano anche un accesso continuo ai dati e al flusso di informazioni.

Più decisioni vengono prese sulla base di dati errati e di ipotesi preconcette, più sarà difficile per l'IA continuare a innovare e progredire.

Coloro che investono per garantire l'accesso a un bacino di dati ampio e diversificato trarranno i maggiori benefici, individuando il vero valore dell'IA e impedendo che i pregiudizi influenzino le decisioni.

Immagine frontale di Brad Drysdale
Ingegnere principale di soluzioni presso SnapLogic

Stiamo assumendo!

Scoprite la vostra prossima grande opportunità di carriera.