Tillverkningsföretag står inför ett växande tryck att använda råvaror mer effektivt, minska avfall och uppfylla alltmer komplexa regleringar. Samtidigt kämpar många små och medelstora företag (SMF) med frågan: var börjar vi?
Artificiell intelligens (AI) blir allt viktigare för företag och konsumenter. Men det handlar om så mycket mer än bara teknologi. Enligt Natasja van de L'Isle, dataspecialist på TMC, kan resultatet från AI-system innehålla bias på grund av flera orsaker – med potentiellt stora konsekvenser. AI-system är inte alltid objektiva, även i Nederländerna. ”Bias i data kan vara ett problem, precis som felaktig träning eller felaktig utvärdering.”
Du hittar algoritmer överallt idag. De bestämmer sökresultat på Google och vad du ser på sociala medier. Men algoritmer används också ofta inom andra områden och verksamheter. Till exempel säkerhetskamerasystem i butiker, dubbelkontroller vid självbetjäningskassor och online kreditkontroller.
En algoritm är en kodsekvens som löser ett problem och kan vara självlärande. Data matas in i algoritmen som leder till ett resultat. Det är artificiell intelligens om algoritmerna fattar självständiga beslut baserat på data eller signaler från sin omgivning och lär sig av dem. Men algoritmer lär sig baserat på vad människor matar in i dem. "Om det finns medvetna eller omedvetna bias i data kommer algoritmen att använda dessa i resultatet. Data kan innehålla fördomar när det gäller kön, ålder, etnisk bakgrund eller bostadsort. Ta till exempel urvalet av sökande. Det är viktigt att undersöka om datan är en bra spegling av målgruppen. Men också hur detta relaterar till resten av samhället. För att undvika bias bör företag först analysera sin data noggrant innan de kör en algoritm. De behöver förstå i vilket sammanhang data samlades in för att identifiera vilka brister data kan ha."
Flera exempel visar att detta inte alltid sker. I Nederländerna gör allt fler företag kreditkontroller för andra organisationer. NS använder denna tjänst. Med artificiell intelligens kontrollerar ett annat företag om någon kan ansöka om ett OV- eller NS-företagskort i form av ett abonnemang. Om någon vill invända när resultatet av denna kontroll är negativt, kan de bara göra det med företaget som utför kontrollerna. NS tar själv inget ansvar för resultatet. Detta framkom i flera rapporter via Konsumentföreningens rapporteringspunkt "dupe av dina data". Flera personer kunde inte få ett NS-abonnemang på grund av denna automatiska kreditkontroll. “En ansökan baseras inte alltid på betalda datakällor som BKR-registreringar. Källor som ofta används är Handelskamaren, dagstidningar och veckotidningar, inkassobyråer och/eller klienter som någon har (haft) en finansiell relation med, för att nämna några exempel. Detta kan innebära att data inte alltid är korrekt eller uppdaterad och kan innehålla information från en annan person. Det leder till ett AI-system som inte kan dra korrekta slutsatser. Ändå antas det utan att kontrollera resultatet att någon inte är kreditvärdig.”
“Om du arbetar med AI-applikationer där människor är involverade måste det finnas en extra kontroll i processen. Dessutom är det viktigt att inte bara använda data, algoritmer och artificiell intelligens korrekt utan även att träna datan. Om du inte gör detta kan ett system omedvetet bygga in partiskhet. När det gäller Skatteverket var till exempel en andra nationalitet ett officiellt urvalskriterium för att avgöra om det fanns en ökad risk för bedrägeri. Som ett resultat blev grupper felaktigt stämplade som 'bedragare'. Med flera metoder kan – och bör – du mäta partiskhet och rättvisa i din data och utfall. Du vet bara inte alltid varför ett system gör en viss förutsägelse. Och du vill förhindra att saker går fel hela tiden, som i fallet med Bidragsaffären. Att de agerade på detta sätt berodde på missbruk av AI, ett algoritmresultat som var felaktigt och brist på kontroll av resultatet. Så länge det handlar om människor måste kontroller alltid utföras av människor.”
För företag som arbetar med algoritmer och artificiell intelligens, men också för konsumenter, är det viktigt att förstå att och hur fördomar uppstår i AI. Speciellt om vi arbetar med data som är kopplad till dina personuppgifter. Vi lever i en era där data är det nya guldet. Men om data om dig är felaktig eller används på fel sätt, kan det få en negativ inverkan. Med långtgående konsekvenser. “Vi bör inte blint lita på algoritmers resultat, och det bör finnas tillsyn över företag som använder algoritmer. Särskilt när det handlar om människor. Regeringen måste göra detta till en prioritet, och företag måste erkänna - och ta - sitt ansvar. Även konsumenter behöver vara medvetna om vad som står på spel. Att förstå vad en algoritm gör och varför artificiell intelligens fattar vissa beslut är viktigt för alla!”
Genom att lägga till förklarbar AI i algoritmen kan vissa beslut förklaras. Dessutom kan den visa möjliga styrkor och svagheter i ett sådant beslut. Verkar det (för) partiskt? Då kan det ändras eller förbättras. Detta leder slutligen till ett bättre AI-system som alla drar nytta av!
Om du vill utforska möjligheter, samarbeten eller har frågor.