Machine leren

Hoe ga je om met bias in ML-training?

Vatsal Ghiya, CEO en mede-oprichter van de Shaip in de speciale gastfunctie deelde enkele inzichten over vooringenomenheid in machine learning. Daarnaast benadrukte hij ook de reden achter vooroordelen in AI en hoe vooroordelen in AI/ML-modellen kunnen worden geëlimineerd.

De belangrijkste take-aways uit het artikel zijn:

  • Van restaurantsuggesties tot het oplossen van servicetickets, AI-chatbots worden steeds vaker gebruikt in sectoren zoals de gezondheidszorg, het bankwezen en de financiële wereld, en om loonkloven te dichten. Met een groot aantal use cases wordt eerlijkheid in verband met het hele proces onvermijdelijk.
  • Bias in het AI-model doet zich voor tijdens de trainingsfasen waarin AI-experts hoeveelheden gegevens invoeren met bepaalde neigingen en voorkeuren. Er zijn met name twee soorten vooroordelen, ten eerste cognitieve vooroordelen en ten tweede vooroordelen die optreden als gevolg van een gebrek aan gegevens. 
  • Maar het goede nieuws is dat vooroordelen in AI-modellen kunnen worden geëlimineerd door de juiste set gegevens te gebruiken, samen met realtime gegevensmonitoring en representatieve gegevensmodellen. Omdat het ons dagelijks leven domineert, is het uiteindelijk belangrijk om voorzichtig te zijn met onze input om de kwaliteit te behouden.

Lees hier het volledige artikel:

https://datafloq.com/read/how-to-handle-bias-in-machine-learning/

Sociale Share

Laten we vandaag uw AI-trainingsgegevensvereiste bespreken.