Door: Redactie - 19 februari 2021 |
In het afgelopen jaar zijn de ontwikkelingen op het gebied van enterprise AI in een stroomversnelling geraakt door de toegenomen vraag naar data- en technologie-gedreven oplossingen. Dataiku, een wereldwijd platform voor enterprise artificial intelligence en machine learning, voorspelt een aantal trends die de komende jaren veel invloed zullen hebben op de werkzaamheden van data scientists en analisten en het concurrentievermogen van grote organisaties.
De Europese Unie loopt voorop als het gaat om het opstellen van wetgeving over het aanvaardbaar gebruik van verschillende vormen van artificial intelligence (AI). Het gaat hierbij niet alleen over het verminderen van de inzet van AI, maar juist ook om het mogelijk maken van nuttige toepassingen. Denk hierbij aan de inzet van gezichtsherkenning die momenteel wordt beperkt door regelgeving op het gebied van privacy- en gegevensbescherming. Duidelijk is dat bedrijven bij het toepassen van machine learning (ML) meer rekening moeten gaan houden met wet- en regelgeving.
Organisaties stellen niet langer de vraag ‘wat is ‘responsible artificial intelligence?’’, maar zullen zich focussen op ‘hoe kunnen we artificial intelligence op een verantwoorde manier inzetten?’. In 2021 is het niet langer nodig om uit te leggen dat het belangrijk is om op een verantwoorde manier met AI om te gaan. De uitdaging ligt er veel meer in hoe op een goede manier te bepalen wat ‘responsible artificial intelligence’ betekent voor verschillende functies binnen een organisatie, zoals een data scientist en een analist. Ook zullen organisaties ervoor kiezen om een framework op te zetten met regels omtrent ethische kwesties en checklists om ‘responsible AI’ te waarborgen in de artificial intelligence pipeline.
Het hele proces rond het ontwikkelen van een model staat in het teken van experimenteren. Meestal vindt er voor elke beslissing of aanname een experiment plaats of wordt er gekeken naar eerder onderzoek om de beslissing te rechtvaardigen. Experimenteren kan vele vormen aannemen, van het ontwikkelen van volwaardige, voorspellende machine learning-modellen tot het uitvoeren van statistische tests of het in kaart brengen van gegevens.
Alle combinaties proberen van elke mogelijke hyperparameter levert vaak slecht herleidbare resultaten op. Maak van experimenteren daarom een strategische beslissing: heeft dit toegevoegde waarde? Het kan hierbij bovendien erg nuttig zijn om een maximaal besteedbare tijd of computing-budget op te stellen voor experimenten. Ook een aanvaardbaarheidsdrempel voor bruikbaarheid van het model is raadzaam.
Met MLOps, of DevOps voor machine learning, kunnen gegevenswetenschappers en IT-teams samenwerken en modellen sneller ontwikkelen en implementeren door middel van bewaking, validatie en governance van machine learning-modellen.
‘Input drift’ is gebaseerd op het principe dat een model alleen nauwkeurig kan voorspellen als de data waarop het is getraind een juiste weerspiegeling is van de echte wereld. Dus als een vergelijking van recente verzoeken aan een geïmplementeerd model met de trainingsgegevens duidelijke verschillen laat zien, is de kans groot dat de prestaties van het model niet goed zullen zijn. Dit is de basis van ‘input drift monitoring’.
Door de pandemie is er in 2021 een flinke afwijking (‘drift’) te zien in alle sectoren. In 2021 zullen organisaties MLOps gebruiken om meer robuuste processen te creëren en strengere eisen te stellen rond drift-monitoring, zodat modellen flexibeler en nauwkeuriger zijn. Het kunnen identificeren van een afwijking is een van de belangrijkste onderdelen van een flexibele MLOps-strategie. Een onderdeel dat bovendien zorgt voor wendbaarheid voor alle AI-inspanning binnen de gehele organisatie.
Bedrijven zullen proberen mensen aan te trekken die representatief zijn voor degenen die de algoritmen gebruiken als ze de kans op vooringenomenheid (‘bias’) echt willen verminderen en diversiteit bevorderen. Hoewel de meeste trainingsdatasets zijn ontwikkeld op basis van een klein percentage van de bevolking, zullen bedrijven nu overwegen hun toepassingsgebied uit te breiden en trainingsdatasets te ontwerpen die inclusiever zijn. Hoe inclusiever de groep die de AI-modellen en de datasets bouwt, hoe kleiner het risico op vertekening.
Om ervoor te zorgen dat diversiteit in hun artificial intelligence-plannen wordt meegenomen, zullen bedrijven ‘inclusive engineering’ inzetten. Dit betekent onder andere dat ze alles in het werk zullen stellen om diverse datasets te verzamelen en te gebruiken. Hierdoor ontstaat een omgeving die meer mensen verwelkomd in de wereld van artificial intelligence. ‘Inclusive engineering’ kijkt naar allerlei onderdelen van de bedrijfsvoering, van opleidingen tot recruitment.
Data scientists zullen nog beter moeten leren de taal van de business te spreken om hun inzichten en voorspellingen te vertalen naar bruikbare inzichten voor de organisatie. De leveranciers van technologie zullen hun producten toegankelijker moeten maken, zodat mensen met een technische en business-achtergrond samen kunnen werken. De nadruk voor data scientists zal niet alleen liggen op hoe snel ze dingen kunnen bouwen, maar ook op hoe goed ze kunnen samenwerken met de rest van het bedrijf.
Lees ook:
Dit artikel delen op je eigen website? Geen probleem, dat mag. Meer informatie.