digital_it_16x12.jpg

Le aziende devono analizzare i loro dati prima di eseguire un algoritmo.

29 marzo [MINUTI] min.

L'intelligenza artificiale (AI) sta diventando sempre più importante per aziende e consumatori. Ma si tratta di molto più che semplice tecnologia. Secondo Natasja van de L'Isle, data science consultant presso TMC, il risultato dei sistemi di AI può contenere bias dovuti a molteplici cause, con possibili conseguenze significative. I sistemi di AI non sono sempre oggettivi, anche nei Paesi Bassi. "Il bias nei dati può essere un problema, così come un addestramento o una valutazione non corretti."

Oggigiorno gli algoritmi sono ovunque. Determinano i risultati delle ricerche su Google e ciò che vedi sui social media. Ma gli algoritmi vengono spesso utilizzati anche in altri ambiti e aree. Ad esempio, sistemi di telecamere di sicurezza nei negozi, controlli aggiuntivi alle casse self-service e verifiche di credito online.

Un algoritmo è un pezzo di codice progettato per risolvere un problema e può essere auto-apprendente. I dati vengono inseriti nell'algoritmo, che porta a un risultato. Si parla di intelligenza artificiale quando quegli algoritmi prendono decisioni indipendenti basate sui dati o sui segnali provenienti dall’ambiente circostante e ne apprendono. Tuttavia, gli algoritmi apprendono in base a ciò che le persone inseriscono in essi. “Se nei dati ci sono pregiudizi consapevoli o inconsapevoli, l'algoritmo li utilizzerà nel risultato. I dati possono contenere pregiudizi relativi a genere, età, background etnico o luogo di residenza. Prendiamo, ad esempio, la selezione dei candidati. È importante verificare se i dati riflettano bene il gruppo target. Ma anche come ciò si rapporta al resto della società. Per evitare pregiudizi, le aziende dovrebbero prima analizzare accuratamente i loro dati prima di utilizzare un algoritmo. Devono conoscere il contesto in cui i dati sono stati raccolti, affinché sia chiaro quali difetti potrebbero esserci nei dati.”

Valutazione oggettiva

Diversi esempi dimostrano che ciò non accade sempre. Nei Paesi Bassi un numero sempre maggiore di aziende effettua controlli di credito per altre organizzazioni. La NS utilizza questo servizio. Con l'intelligenza artificiale, un'altra azienda verifica se una persona può richiedere un abbonamento OV o NS business card. Se qualcuno desidera contestare il risultato nel caso in cui questo controllo produca un esito negativo, può farlo solo con l'azienda che effettua il controllo. La NS stessa non si assume la responsabilità per il risultato. Questo è emerso da numerose segnalazioni al punto di riferimento dell'Associazione Consumatori 'la vittima dei tuoi dati'. Diversi individui non sono stati in grado di ottenere un abbonamento NS a causa di questo controllo automatico del credito. “Una richiesta non si basa sempre su fonti di dati a pagamento, come le registrazioni BKR. Le fonti frequentemente utilizzate includono la Camera di Commercio, quotidiani e settimanali, agenzie di recupero crediti e/o clienti con cui una persona ha (avuto) una relazione finanziaria, per citarne alcuni esempi. Questo può determinare che i dati non siano sempre accurati o aggiornati e potrebbero contenere informazioni appartenenti a un'altra persona. Ciò porta a un sistema di intelligenza artificiale incapace di trarre conclusioni corrette. Tuttavia, senza verificare il risultato, si presume che qualcuno non sia solvibile.”

Misurare pregiudizio ed equità

“Se lavori con applicazioni di intelligenza artificiale in cui sono coinvolte persone, è necessario effettuare un controllo extra nel processo. Inoltre, è importante non solo utilizzare correttamente i dati, gli algoritmi e l'intelligenza artificiale, ma anche addestrare i dati. Se non lo fai, un sistema può inconsapevolmente introdurre bias. Nel caso delle Autorità Fiscali, ad esempio, una seconda nazionalità è stata un criterio ufficiale di selezione per determinare se vi fosse un rischio maggiore di frode. Di conseguenza, gruppi sono stati erroneamente etichettati come 'falsificatori'. Con diversi metodi, puoi - e devi - misurare il bias e l'equità dei tuoi dati e dei risultati. Tuttavia, non sai sempre perché un sistema formula una certa previsione. E vuoi prevenire che le cose vadano male in ogni momento, come è avvenuto con l'affare delle Sovvenzioni. Il fatto che abbiano agito in questo modo è dovuto all'abuso dell'intelligenza artificiale, a un risultato di algoritmo errato e alla mancanza di controllo sul risultato. Finché si tratta di persone, i controlli devono sempre essere effettuati dalle persone.”

Conseguenze di vasta portata

Per le aziende che lavorano con algoritmi e intelligenza artificiale, ma anche per i consumatori, è importante comprendere che i pregiudizi possono sorgere e come accade nell'AI. Soprattutto se lavoriamo con dati collegati ai tuoi dati personali. Viviamo in un'era in cui i dati sono il nuovo oro. Ma se i dati su di te sono errati o utilizzati nel modo sbagliato, possono avere un impatto negativo. Con conseguenze di vasta portata. “Non dovremmo fidarci ciecamente del risultato degli algoritmi e ci dovrebbe essere una supervisione delle aziende che utilizzano algoritmi. Soprattutto quando si tratta di persone. Il governo deve fare di questo una priorità e le aziende devono riconoscere - e assumersi - la loro responsabilità. Anche i consumatori devono essere consapevoli di ciò che è in gioco. Comprendere cosa fa un algoritmo e perché l'intelligenza artificiale prende determinate decisioni è importante per tutti!”

Aggiungendo l'AI spiegabile all'interno dell'algoritmo, alcune decisioni possono essere spiegate. Inoltre, può mostrare possibili punti di forza e debolezze di una determinata decisione. Sembra (troppo) faziosa? Allora può essere cambiata o migliorata. Questo porta infine a un sistema di AI migliore da cui tutti possono trarre vantaggio!

3.jpg
Mettiamoci in contatto!

Contattaci per opportunità, collaborazioni o domande. Siamo qui per connetterci.