Waarom zoekmachines en chatbots steeds meer op elkaar gaan lijken
Zoekmachines proberen steeds beter onze vragen te beantwoorden. En chatbots gaan steeds vaker het internet op om op zoek te gaan naar relevante bronnen. ‘Zoekmachines en chatbots zullen steeds meer vervlochten raken’, zegt hoogleraar Suzan Verberne.
Wie op Google een vraag intypt, krijgt vaak direct een antwoord te zien, nog voordat er een zoekresultaat is aangeklikt. Zoekmachines worden zo steeds meer interactief en gaan meer op chatbots lijken, ziet Verberne. Sommige chatbots krijgen op hun beurt steeds vaker eigenschappen van zoekmachines. Zo wordt er na een vraag aan een chatbot op de achtergrond een zoekopdracht op internet uitgevoerd, en wordt er in de antwoorden verwezen naar bronnen.
Hallucinaties en bias
Het is ‘essentieel’ dat zoekmachine-technologie wordt toegevoegd aan chatbots, zo bepleit Verberne in haar oratie. De hoogleraar Natural Language Processing aan het Leiden Institute of Advanced Computer Science (LIACS) richt zich vooral op het vinden van informatie in grote tekstcollecties. ‘We hebben allemaal gezien hoe krachtig chatbots zoals ChatGPT zijn. Maar we zien ook steeds duidelijker de risico’s, zoals hallucinaties en bias.’ Hallucinaties zijn geloofwaardige verzinsels in de antwoorden van chatbots, en bias verwijst naar vooroordelen die chatbots overnemen uit de teksten waarop ze getraind zijn en die ze soms zelfs uitvergroten.
De oplossing voor beide problemen ligt deels in de implementatie van zoekmachine-technologie, denkt Verberne. ‘Chatbots moeten niet alleen plausibele antwoorden genereren, maar ook correcte informatie ophalen uit de juiste bronnen.’ Verberne werkt aan methoden waarbij een zoekmachine ‘aan de achterkant’ van het taalmodel relevante documenten ophaalt. Het taalmodel formuleert op basis van de zoekresultaten dan een antwoord.
Verberne werkt samen met haar promovendi en studenten met taalmodellen die open source zijn. ‘Dat zijn modellen, getraind voor algemeen gebruik, die je mag aanpassen voor een bepaalde toepassing waar je aan werkt. Het is mogelijk om grote modellen aan te passen aan een specifieke toepassing, maar je hebt er wel krachtige computers voor nodig. Die hebben we gelukkig bij het LIACS en via de nationale ict-coöperatie SURF.’ Door de taalmodellen taakgerichte training te geven, kunnen ze specifieke taken nog beter leren. Daarmee zijn ze een waardevol gereedschap voor wetenschappers.
Zoekmachine voor archeologen
Samen met onderzoekers van andere disciplines maakt Verberne AI-toepassingen voor onderzoek naar bijvoorbeeld archeologische vondsten, juridische teksten of medische vraagstukken. ‘Archeologen moeten soms tussen tienduizenden documenten met lange teksten de relevante informatie over opgravingen vinden. Samen met een promovendus van Archeologie hebben we een zoekmachine gemaakt specifiek voor dat doel.’
De zoekmachine kan door middel van een taalmodel relevante zoektermen herkennen in de archeologische rapportages. ‘Om dat voor elkaar te krijgen hebben we student-assistenten in een aantal van die rapporten aan laten geven wat de relevante termen zijn, bijvoorbeeld voor vindplaatsen, bepaalde artefacten of tijdperiodes. Het taalmodel hebben we daarna getraind met die gegevens, waarna de zoekmachine relevante termen kan vinden in de rest van de documenten.’
Frustratiemomentjes
Sinds de komst van ChatGPT zijn taalmodellen bekend geworden onder een groot publiek en is er in de media veel aandacht voor AI-chatbots. Voor Verberne was het ‘even wennen’ dat haar onderzoeksveld zo in de belangstelling staat. ‘Ik heb wel wat frustratiemomentjes gehad bij het lezen van de krant. Journalisten kwamen naar mijn idee soms uit bij de verkeerde experts, en sommige verhalen werden klakkeloos gepubliceerd.’ Inmiddels ziet ze dat journalisten de techniek beter begrijpen, en de risico’s en gevaren ervan kennen.
‘Niemand had deze hype zien aankomen’
Zij had niet verwacht dat een taalmodel zoveel aandacht zou krijgen. ‘Niemand heeft kunnen voorzien dat dit zo’n wereldwijde hype zou worden. ChatGPT was eigenlijk maar een kleine vernieuwing ten opzichte van de modellen die er waren. Het is interessant dat de release ervan zoveel heeft bewerkstelligd.’
De ontwikkelingen gaan zo snel, dat het voor onderzoekers moeilijk is om bij te houden. ‘Er komen steeds nieuwe taalmodellen uit. Daarom vind ik dat we aspecten moeten onderzoeken die niet specifiek zijn voor een bepaald model. Hoe kunnen we output op een fatsoenlijke manier evalueren? Hoe kunnen we bias in de trainingsdata oplossen? Hoe kunnen we de modellen inzetbaar maken voor meer talen en specifieke domeinen? Dat zijn aspecten die relevant blijven, met welk model je ook werkt.’
Tekst: Tom Janssen