• 20 maart 2019

Waarom besteden we op het werk zo veel tijd aan zoeken naar informatie?

Een onderneming kan miljoenen video's, presentaties, documenten en andere vormen van informatie bezitten, afkomstig van verschillende bronnen. Is het gemakkelijk om in zo'n massa gegevens te vinden wat u zoekt?

En hoe zit het met het structureren en categoriseren van de data? Als uw bedrijf 10.000 uur aan video's heeft, dan is het niet realistisch om te verwachten dat mensen zo'n hoeveelheid content zorgvuldig bekijken en categoriseren. De video's zijn alleen doorzoekbaar op titel en korte beschrijving, en de daadwerkelijke inhoud van de video's blijft buiten het bereik van de zoekmachine.

Volgens een rapport van McKinsey besteden werknemers elke dag 1,8 uur aan het doorzoeken en verzamelen van informatie. Dat is gemiddeld 9,3 uur per week!

De huidige oplossingen voor enterprise search zijn niet efficiënt, waardoor er kostbare uren worden verspild.

Relevante informatie hoeft geen naald in een hooiberg te zijn

Knowledge Doubling Curve van Buckminster Fuller.

Figuur 1: Knowledge Doubling Curve van Buckminster Fuller.

Als de hoeveelheid gegevens zich blijft vermenigvuldigen (zie figuur 1), dan wordt het voor een mens onmogelijk om alles te lezen en te taggen. We hebben dus een efficiëntere manier nodig om de informatie te benaderen en te structureren. Gelukkig leven we in een wereld met artificial intelligence (AI). AI helpt ons bij de verwerking van big data en geeft toegang tot informatie die anders verloren zou gaan.

In de analyse 'Improve Search to Deliver Insight' (mei 2017, geactualiseerd oktober 2018) geeft Gartner aan dat zoekmachines een topprestatie leveren als ze relevante content vinden op het moment, op de plek en op de manier waarop medewerkers behoefte hebben aan die content. Gartner stelt verder dat het minimaliseren van de inspanning die daarvoor nodig is, de waarde voor het bedrijf maximaliseert.

Bij Valamis hebben we binnen ons Learning Experience Platform (LXP) een AI-oplossing ontwikkeld die informatie beter toegankelijk maakt. Het is naast een krachtige enterprise search, ook een recommendation engine en analysetool die het mogelijk maakt om de content van een organisatie optimaal te benutten.

We noemen onze oplossing Intelligent Knowledge Discovery (IKD). In dit blog gaan we dieper in op de voordelen van IKD. We leggen ook de technologie erachter uit en laten zien op welke manier onze klanten het gebruiken.

Intelligent Knowledge Discovery bevrijdt de kennis

Intelligent Knowledge Discovery geeft eenvoudig toegang tot alle in uw organisatie beschikbare informatie, naast externe content en andere resources. We hebben in deze oplossing verschillende applicaties van IBM Watson samengebracht om een overzichtelijk en nauwkeurig systeem voor kennismanagement te creëren.

Onze op AI gebaseerde oplossing maakt gebruik van natural language processing (NLP), visual recognition en machine learning om alle content door te nemen en te analyseren. Menselijke taal en beelden worden gecombineerd tot een vorm die een machine kan begrijpen, interpreteren, verwerken, analyseren en bewerken.

De oplossing herkent momenten in uw video's, tagt uw content, en categoriseert die op onderwerp of concept. IKD leest al uw documenten en bekijkt al uw video's, zodat u dat niet zelf hoeft te doen. En als u de volgende keer iets zoekt, dan wijst IKD u het exacte videomoment waar de informatie die u zoekt is gevonden.

Als uw bedrijf 1.000 uur aan video's heeft, dan kost het een menselijke medewerker volgens ons 2.000 uur om de video's te bekijken, en alle videomomenten te verzamelen en te taggen. Watson kan hetzelfde werk in minder dan 10 uur doen.

Misschien wilt u later op een andere manier categoriseren, de videomomenten nog exacter taggen, of dwarsverbanden tussen twee verschillende onderwerpen vinden in uw complete hoeveelheid videomateriaal. Dat zou een menselijke medewerkers opnieuw 2.000 uur kosten.

De technologie van IBM Watson kan dit in minder dan 10 uur doen. Watson kan leren om nauwkeuriger te zijn in het verwerken van de content om de meest waardevolle informatie te vinden. En hij doet dat in een fractie van de tijd die een menselijke medewerker nodig zou hebben.

Figuur 2.

Intelligent Knowledge Discovery kan niet alleen zoeken. IKD kan ook intelligente aanbevelingen doen. Naast trends, neemt IKD overeenkomsten en verbanden waar tussen diverse video's en verschillende delen van een tekst of andere content. Het kan die verbanden vervolgens vergelijken met datgene waar de leerders op dat moment mee bezig zijn. Dat maakt het mogelijk uiterst doelgerichte en relevante content aan te bieden, die is afgestemd op de behoeften van de individuele leerder.

Cognitive Search begrijpt waar uw documenten en bestanden over gaan

In dit deel gaan we dieper in op de technologie achter Watson en Intelligent Knowledge Discovery. Binnen IKD spelen Cognitive Search en AI een essentiële rol in de verwerking van echte menselijke taal.

Cognitive Search gebruikt natural language processing (NLP) en machine learning om data afkomstig van meerdere databases te verzamelen, te verwerken, te begrijpen, te structureren en om te vormen. NLP verwijst naar het vermogen van computers om natuurlijke menselijke taal te begrijpen en in die taal te communiceren met mensen. NLP maakt deel uit van ons dagelijks leven zonder dat we het in de gaten hebben. Stelt u zich maar eens voor dat u een bericht typt op uw telefoon of dat u een document schrijft op uw computer, en dat u een fout maakt. NLP herkent dan de fout en stelt een alternatief voor.

Met Intelligent Knowledge Discovery kan een proces er als volgt uitzien: U hebt over 30 minuten een presentatie waar u nerveus voor bent. U wilt snel weten hoe u van uw nervositeit en stress afkomt. En u weet dat het leerplatform van uw bedrijf een paar lessen biedt over spreken voor publiek, maar u bent op zoek naar een paar snelle tips om te overleven.

Voordat Intelligent Knowledge Discovery bestond, moest u zoeken op zoekwoorden om een cursus, een document of een video te vinden.

Met de Cognitive Search van IKD kunt u de database veel sneller doorzoeken, omdat zowel het tekst- als het videomateriaal al is geanalyseerd door NLP. NLP vindt het antwoord voor u en linkt u naar de specifieke plek in de tekst of de video. Op die manier zou u de drie beste tips plus een vijf minuten durende oefening kunnen vinden, waarbij u ook nog eens genoeg tijd overhoudt om u voor te bereiden.

Dit is mogelijk doordat de combinatie van NLP en door machine learning ondersteunde Cognitive Search:

  1. gegevens begrijpt in elke vorm die u ermee heeft verbonden
  2. big data kan verwerken
  3. kan worden ingebed in uw learning experience platform, zodat iedereen er gebruik van kan maken

Natural language processing in een notendop

Natural language processing gaat over het gebruik van tools, technieken en algoritmen om een computer natuurlijke taal te laten lezen en schrijven. Om te begrijpen hoe dat werkt, behandelen we verschillende problemen en aspecten van NLP. NLP kan worden opgedeeld in drie kerndelen (zie figuur 3):

  1. het omzetten van informatie in natuurlijke taal
  2. het begrijpen van natuurlijke taal
  3. het genereren van natuurlijke taal

Figuur 3.

Deze drie kerndelen kunnen worden opgedeeld in een NLP-pipeline, een workflow die bestaat uit verschillende opeenvolgende stappen.

Het omzetten van informatie in natuurlijke taal

De eerste stap van de pipeline is het verzamelen van alle op natuurlijke taal gebaseerde data: video's, afbeeldingen, spraak en vervolgens het omzetten van de woorden naar een tekstformaat.

In de deze stap worden tools voor spraakherkenning en optische tekenherkenning geconfigureerd, die de afgelopen jaren aanzienlijk zijn verbeterd.

Soms zijn meer geavanceerde tools noodzakelijk. Er is bijvoorbeeld een aanvullende tool nodig om een spreker in een andere video te herkennen.

Het begrijpen van natuurlijke taal maakt contextualisatie mogelijk

Als de data in tekstformaat staan, hebben we natural language understanding (NLU) nodig. Dit is een essentieel onderdeel van succesvolle NLP. NLU zet de tekst om in een gestructureerde vorm die machines kunnen begrijpen en waar ze op kunnen reageren.

Een tekst begrijpen is een eenvoudige taak voor een mens, maar voor een machine is het moeilijk. De Engelse taal begrijpen is lastig, en meer complexe talen als Fins of Zweeds zijn nog moeilijker!

NLU is meer dan een machine trainen om woorden te begrijpen of te tellen hoe vaak zoekwoorden voorkomen. Het omvat verschillende stappen van opdelen van een tekst en trainen van een machine.

Het voorbewerken van tekst is in essentie het opschonen en formatteren van de tekst. Er moeten veel eigenaardigheden wordt weggewerkt, zoals verkeerde uitspraak, spreektaal, afkortingen en samengestelde woorden. Op deze manier kan de machine de opmerkingen en feedback van uw medewerkers over een cursus begrijpen en beschikbaar stellen als nieuwe peer-to-peer-informatie die oorspronkelijk geen deel uitmaakte van uw leermateriaal.

Na het voorbewerken is structuuranalyse de volgende stap binnen NLU. Elke natuurlijke taal kent een algemene structuur en syntaxis die bepalen hoe woorden worden samengevoegd tot frasen, zinsdelen en zinnen. Een gebruikelijke stap binnen de analyse van de structuur is het opdelen van de tekst in zinnen en vervolgens in afzonderlijke woorden. Deze woorden worden vervolgens getagd met hun deel van de spraak en de grammaticale structuur van een zin wordt geanalyseerd aan de hand van parseeralgoritmen. De machine begrijpt hierdoor de structuur en de syntaxis, en kan vervolgens het verschil zien tussen werkwoorden en zelfstandig naamwoorden. Dit komt goed van pas in verschillende andere stappen van NLP, zoals het classificeren van tekst met machine learning.

Door semantische analyse kan NLU uiteindelijk ook de betekenis en de context begrijpen. De meest bekende use cases van semantische analyse zijn automatische zoekwoordherkenning (tagging) en het begrijpen van de in de tekst beschreven emoties (sentimentanalyse). Een meer geavanceerde semantische analyse evolueert echter voortdurend en is erop gericht om zowel de persoon als de inhoud te begrijpen. Hier is een voorbeeld:

U bent op zoek naar content voor het zoekwoord: 'tiger' en de resultaten zijn:

  • een dier
  • een sterrenbeeld
  • een film
  • een biertje
  • een tank
  • een besturingssysteem van Apple

Een meer geavanceerde semantische analyse zou u de context bieden waarin u bent geïnteresseerd en uw user experience veraangenamen.

Machine learning herkent de verborgen structuren

Het laatste gebied van NLU is machine learning. NLP-ontwikkelaars kunnen modellen trainen door middel van supervised, dan wel unsupervised learning. Supervised learning is het classificeren van tekst en dit vraagt om een grote hoeveelheid gelabelde gegevens. Unsupervised learning - ofwel: clustering - is een ander toepassingsgebied van machine learning, dat kan worden ingezet om verborgen structuren, onderwerpen of vergelijkbare documenten te herkennen. Machine learning richt zich dus op de issue als een classificatieprobleem in plaats van op het begrip van de betekenis. Machine learning gaat snel en houdt zich niet bezig met de details van de taal – zolang er voldoende training data beschikbaar zijn. Machine learning is geweldig om bepaalde beperkte inzichten te verkrijgen, bijvoorbeeld wat betreft het algemene gevoel.

In de praktijk zijn structuur- en semantische analyse tijdrovend. Het in stand houden van een verzameling relevante patronen in natuurlijke taal is moeilijk, omdat natuurlijke taal zich voortdurend ontwikkelt. We hebben daarvoor zowel traditionele NLP-elementen, als machine learning nodig. In Intelligent Knowledge Discovery zijn beide geïntegreerd. Al deze stappen en technieken zijn opgenomen in een reeks applicaties die zich laten integreren in Cognitive Search, bedrijfsprocessen en een chatbot. Dit kan allemaal worden opgenomen in de Intelligent Knowledge Discovery van Valamis. Traditionele NLP voorziet in een basislaag van analyse en contextualisatie. Modellen voor machine learning maken gebruik van de output van de basislaag en bieden een hogere analyselaag waarin structuren, onderwerpen en intenties worden herkend.

Hoe kan een grote organisatie kennis vasthouden? Een voorbeeld

Onze klant is een grote organisatie in de VS. Als veel medewerkers met een lange staat van dienst de pensioengerechtigde leeftijd bereiken, ziet het bedrijf zich geconfronteerd met een probleem. Er dreigt veel waardevolle kennis verloren te gaan als mensen de organisatie verlaten. De organisatie besluit Intelligent Knowledge Discovery te gebruiken om zo veel mogelijk informatie vast te houden.

Om de kennis van de medewerkers te behouden, besluit de organisatie om hen sprekend vast te leggen op video. Vele uren videomateriaal vormen samen met de documenten en presentaties die in tientallen jaren zijn verzameld, een gigantische hoeveelheid waardevolle kennis.

De Intelligent Knowledge Discovery oplossing maakt die kennis toegankelijk door de informatie te structureren, en Cognitive Search zorgt dat een gebruiker precies die informatie vindt, die hij nodig heeft.

Dit is Jack

Jack is al vele jaren in dienst bij de organisatie en hij staat op het punt om met pensioen te gaan. Hij beschikt over heel veel kennis die nooit is vastgelegd.

Omdat Jack geen tijd heeft om cursussen of presentaties voor te bereiden, heeft hij besloten om zijn kennis te delen door vragen van jongere medewerkers te beantwoorden. De jongere medewerkers kiezen samen de beste vragen uit en Jack zet elke week zijn webcam aan om een webinar te verzorgen waarin hij hun vragen beantwoordt en de onderwerpen bespreekt.

Na de webinar verwerkt Intelligent Knowledge Discovery de video. De oplossing vergelijkt de video met andere content en bepaalt het onderwerp en de tags. Vervolgens wordt de informatie geïndexeerd, en beschikbaar en vindbaar gemaakt voor iedereen in de organisatie. De kennis van Jack is veiliggesteld en blijft eenvoudig toegankelijk voor alle toekomstige werknemers van de organisatie.

Nog meer beschikbare informatie door federated search

Intelligent Knowledge Discovery kan ook informatie benaderen via uw integraties. IKD ontsluit de search engine index van externe bronnen als OpenSesame, LinkedIn Learning en edX. Het bereikt ook alle interne documenten buiten het leerplatform, van bronnen zoals Google Drive, OneDrive, Dropbox en Slack.

Vanuit het perspectief van de gebruiker bundelt Intelligent Knowledge Discovery de kracht van verschillende zoekmachines in één zoekopdracht. Dit levert een L&D-team tijdbesparingen op, omdat het materiaal niet intern geproduceerd hoeft te worden en het ook niet nodig is om materiaal toe te voegen aan het corporate learning experience platform. Gegevens over de betrokkenheid van gebruikers en andere analytics blijven toegankelijk via xAPI statements, wat resulteert in een allesomvattend learning ecosysteem.

Meer dan enterprise search

Zodra Intelligent Knowledge Discovery uw content heeft verwerkt met behulp van machine learning, kan IKD analyseren wat uw leerders zoeken en welke concepten het meest interessant lijken.

Intelligent Knowledge Discovery kan u eventuele hiaten in het leermateriaal helpen vaststellen. Op deze manier kunt u een proces in gang zetten om nieuw, relevanter materiaal te creëren, waarmee u uw medewerkers ondersteunt in hun dagelijkse werk. In sommige gevallen kunt u zelfs een opkomende crisis binnen een project opsporen.

Met IKD hebt u skill gaps en leerbehoeften in het vizier, zodra ze zich voordoen. U kunt steeds proactief handelen en daarmee de kosten terugdringen.

U kunt IKD ook gebruiken om te bepalen wie de experts zijn binnen uw organisatie, zodat u de juiste mensen kunt koppelen aan de juiste teams. Doordat u ziet wat mensen zoeken en leren binnen uw systeem, kunt u bepalen wie subject matter experts zijn en kunt u taken zeer nauwkeurig toekennen. Het is ook mogelijk om compleet onbenut potentieel van uw medewerkers te ontdekken.

Het betere kennismanagement

"Het LXP moet niet alleen intelligente methoden bieden voor het aanbieden van content […] het kan ook worden ingezet om artikelen van derden aan te reiken, om experts te vinden, en ook om documenten, video's en ander digitaal materiaal te indexeren. Het is in zekere zin een contentmanagementsysteem, een kennismanagementsysteem en een learning-systeem in één – en dat verklaart waarom deze markt zo snel groeit."
- Josh Bersin, industry analyst, Learning Experience Platform (LXP) Market Grows Up: Now Too Big To Ignore

Volgens analist Josh Bersin is er een groeiende vraag naar de features die we beschrijven in dit blog. Intelligent Knowledge Discovery als onderdeel van het leren binnen organisaties zal zich voortdurend blijven ontwikkelen. De technologie is eenvoudig te gebruiken, en dat maakt de weg vrij naar beter kennismanagement.

Voor wat betreft het leren, betekent Intelligent Knowledge Discovery een verrijking van zowel de content als van de data die leerders verzamelen. De beschikbare gegevens en informatie vermeerderen zich, doordat alle beschikbare informatie wordt geëvalueerd en getagd door de machine.

Er komen ook meer gegevens beschikbaar over het gebruik van de informatie, wat verdere ontwikkelingen op het gebied van contentanalyse mogelijk maakt. Het verband tussen werk en leeractiviteiten wordt zichtbaar, doordat het persoonlijke leren specifieker wordt.

De resultaten van een zoekopdracht zijn niet alleen gebaseerd op goede koppen, ook wel clickbait genoemd. Dit betekent dat leerders niet automatisch worden doorgestuurd naar de video of het artikel waarop het vaakst is geklikt, maar naar de daadwerkelijk meest geschikte content.

Old school search engines vragen gebruikers tegenwoordig of ze hun zoekresultaten nuttig vinden. In de toekomst beschikken bedrijven over een tool die het antwoord op die vraag zelf kan geven door de search tool te combineren met learning analytics en de activiteiten van de leerder te volgen. 'Heeft de gebruiker geklikt op een van de zoekresultaten? Hoeveel tijd hebben ze aan de materialen besteed? Heeft de interactie of de leeractiviteit geleid tot een gedragsverandering?'

Aan de hand van leergegevens kan het systeem de kwaliteit van de zoekresultaten en de content analyseren. Het deduceert of de leerder niet heeft gevonden wat hij zocht, en past de zoekresultaten daar in de toekomst op aan.

De technologie ontwikkelt zich, en het menselijke brein kan, zal en wordt op dit moment samengevoegd met computers en artificial intelligence. Of peer-to-peer-informatie wordt overgebracht van gedachten naar gedachten met wat hulp van een machine.

We leven dan nog wel niet in The Matrix, maar misschien bevindt de kennis die we nodig hebben in ons werk zich in de toekomst al in onze hoofden voordat we ook maar op het idee kunnen komen om ernaar te zoeken.

Over De Auteur

Janne Hietala
Chief Commercial Officer at Valamis
+44 (0) 7484186421
Janne Hietala richtte zijn eerste bedrijf op toen hij 21 jaar oud was. Hij is sinds 2008 Chief Commercial Officer van Valamis. In deze functie is hij verantwoordelijk voor de commerciële strategie op het gebied van marketing, sales, productontwikkeling en services. Momenteel voert Janne het Global Sales Team van Valamis aan vanuit 's werelds grootste fintech-centrum, Level39 in Londen. Janne rondt op dit moment ook de Executive MBA af aan de London Business School. In 2012 werd Janne Hietala uitgeroepen tot Young Entrepreneur of the Year.

Over De Auteur

Jens Harju
Lead Data Scientist
Jens is bij Valamis verantwoordelijk voor projecten en oplossingen op het gebied van data science. Hij heeft zich eerder voor diverse analytics-projecten in verschillende sectoren beziggehouden met projectmanagement, consulting en solution delivery. Ook heeft Jens dubbele MSc titel, met een specialisatie in Industrial Engineering, Finance en Econometrics.

Over De Auteur

Samu Kuosmanen
Management Consultant, Valamis Group Oy
Samu heeft meer dan 10 jaar ervaring als leidinggevende binnen Digital Transformation projecten voor grote wereldwijde organisaties. Zijn focus ligt bij enterprise performance management, analytics and robotic process automation.