Categorieën
Nieuws

Academische workshop in het Lorentz Center

Het Instituut voor de Nederlandse Taal (INT) organiseerde van 4 t/m 8 november een workshop in het Lorentz Center in Leiden met als thema ‘The Future of Academic Lexicography: Linguistic Knowledge Codification in the Era of Big Data and AI’.

Een kleine zestig experts uit Europa en Zuid-Afrika bogen zich over de vraag hoe de toekomst er voor de wetenschappelijke lexicografie uitziet en wisselden van gedachten over tal van praktische problemen en de oplossingen daarvoor. Daarbij werd vooral gekeken naar het snijvlak tussen de computationele methodes, de overvloed aan digitale data en het (traditionele) woordenboekwerk.

Toekomst

Een voorzichtige conclusie kan zijn dat in de meeste Europese landen de toekomst van de wetenschappelijke lexicografie aan snelle veranderingen onderhevig is, maar een interessante toekomst voor zich heeft. Het veranderde verdienmodel – mensen betalen bij voorkeur niet voor online-informatie – maakt de balans tussen de commerciële en de wetenschappelijke lexicografie anders. Waar mensen bij voorkeur niet wensen te betalen voor online-informatie, zijn de met publiek geld gemaakte en vrij toegankelijke wetenschappelijke woordenboeken – die voorheen slechts in een kleine (gedrukte) oplage voor een beperkt publiek toegankelijk waren – een voor vele onlinegebruikers nieuwe bron van betrouwbare informatie.

Nieuwe uitdagingen

Een van de problemen die zich voordoen bij de nieuwe rol van de digitale, wetenschappelijke woordenboeken, is dat zij zich veel meer dan voorheen richten op een groot publiek. Iedereen zou iets van zijn gading moeten kunnen vinden in hun producten. Dit maakt dat er opnieuw moet worden nagedacht over de structuur en inrichting van de woordenboekartikelen. Een ander probleem is dat de rol van de lexicograaf snel aan het veranderen is. Er wordt veel output van de woordenboekmaker verwacht, terwijl er tegenwoordig enorme hoeveelheden digitale data beschikbaar zijn. Technische oplossingen die in andere vakgebieden waar met grote hoeveelheden taalmateriaal wordt gewerkt, al worden toegepast, zouden hier uitkomst kunnen bieden.

Oplossingen en aanbevelingen

De aanwezige lexicografen, IT’ers en experts in de computationele taalkunde bespraken hoe de bestaande wetenschappelijke woordenboeken met inzet van slimme technieken geholpen kunnen worden. Hun aanbevelingen worden in de komende tijd door het Instituut voor de Nederlandse taal geïnventariseerd en in een zogeheten White Paper gepubliceerd. Niet alleen het Algemeen Nederlands Woordenboek (ANW), gemaakt door het INT, maar ook woordenboekprojecten die elders in Europa uitgevoerd worden, hopen optimaal van de aanbevelingen in deze paper te profiteren.


Laatste nieuwsberichten:

Of bekijk alle nieuwsberichten.