De wereld van legaltech is constant in beweging, waarbij veelbelovende en hooggewaardeerde startups als paddenstoelen uit de grond schieten. Maar welke zijn betrouwbaar en welke niet? En hoe kies je de oplossing die het beste bij jouw behoeften past? In dit artikel delen we enkele aandachtspunten.
De rol van AI in de 'boom' aan legaltech
De legaltech-markt vertoont een sterke groei en is naar verwachting in 2027 zo’n 225 miljard dollar waard. Dat is een aanzienlijke stijging ten opzichte van de marktwaarde van 127 miljard dollar in 2021. Deze groei is grotendeels het gevolg van het toenemende gebruik van AI in de juridische sector.
Je gebruikt in je kantoor wellicht al een breed scala aan AI-tools en integraties om taken te automatiseren. Van terugkerend administratief werk tot de meer complexe aspecten van juridisch onderzoek. Dit verbetert niet alleen efficiëntie en productiviteit, maar creëert ook nieuwe mogelijkheden voor innovatie. Hierdoor heb je meer tijd voor adviesverlening aan cliënten. AI analyseert ook complexe juridische vraagstukken en lost ze op. Hierdoor krijgt je meer inzicht in jouw zaken en kan je beter onderbouwde beslissingen nemen. AI-gestuurde legaltech transformeert de traditionele rechtspraktijk en luidt een nieuw tijdperk van juridische dienstverlening in. Maar het is niet alleen maar rozengeur en maneschijn…
AI biedt vele voordelen, maar er zijn ook aanzienlijke risico's en uitdagingen aan verbonden. Als jurist is het belangrijk dat je je bewust bent van deze uitdagingen. Alleen zo kan je de beste oplossing voor jouw specifieke behoeften kiezen. Soms kan een klein foutje met de verkeerde legaltech grote gevolgen hebben.
Kostbare lessen geleerd van het gebruik van AI in de juridische sector
Een advocatenkantoor in Florida wilde besparen op technologiekosten en bouwde zelf een spamfilter voor hun e-mails. Hun e-mailserver verwijderde automatisch alle berichten die als spam waren gemarkeerd, zonder gebruik te maken van filters en back-ups van derden. Die besparing werkte averechts toen de server een gerechtelijk bevel verwijderde waarin advocatenhonoraria werden beoordeeld, waardoor de deadline voor hoger beroep werd gemist. Het Hof van Beroep beoordeelde hun falen om tijdig beroep aan te tekenen als nalatigheid.
Er zijn inmiddels ook voorbeelden van het gebruik van generatieve AI die niet goed aflopen. In juni 2023 diende een advocaat een door ChatGPT gegenereerd juridisch verslag in met onjuiste citaten en verwijzingen naar zes niet-bestaande zaken. Hij raadpleegde ChatGPT om zijn eigen juridische onderzoek aan te vullen tijdens het voorbereiden van een antwoord op een motie tot verwerping van de aanklacht. Hij vroeg ChatGPT of de andere zaken nep waren. De chatbot antwoordde dat ze echt waren en "te vinden zijn in gerenommeerde juridische databases zoals LexisNexis en Westlaw."
Een andere jurist gebruikte OpenAI's ChatGPT om oude rechtszaken op te zoeken voor een proces wegens medische wanpraktijken. Hij voegde een door AI gegenereerde zaak toe waarin werd beweerd dat een Amerikaanse arts een mislukte abortus had uitgevoerd. Hij kon geen bewijs van de zaak leveren toen hij werd ondervraagd.
4 aandachtspunten bij het implementeren van AI-gedreven legaltech
Deze voorbeelden benadrukken de risico's van onnauwkeurigheid en onbetrouwbare informatie die ontstaan door het gebruik van legaltech zonder een goede controle. Het selecteren en implementeren van legaltech vereist grondige planning, uitgebreid onderzoek en voortdurende evaluatie om de voordelen te maximaliseren en tegelijkertijd de potentiële risico's te minimaliseren.
1. Hoe wordt het taalmodel opgebouwd en getraind?
Zoals blijkt uit bovenstaande voorbeelden, kan legaltech onbetrouwbare informatie genereren, vooroordelen bevatten of zelfs 'hallucineren' wanneer het niet op de juiste manier wordt beheerd en gecontroleerd. Hoewel mensen ook fouten kunnen maken en vooringenomen kunnen zijn, vormt dit een significant risico. Het is dus essentieel dat je grondig onderzoek doet naar de aanbieders van legaltech en hoe zij hun systeem trainen. Kies voor een speler waarvan je zeker weet dat ze hun taalmodel baseren op betrouwbare bronnen. Zo hoef je je geen zorgen maken over de nauwkeurigheid van de gegenereerde informatie.
2. Hoe gaat de legaltech om met privacy?
In de juridische wereld, waar vertrouwelijkheid en privacy essentieel zijn, kan het gebruik van AI-systemen die toegang hebben tot gevoelige informatie ook leiden tot onbedoelde openbaarmaking of verkeerdelijk wegschrijven van deze informatie. Dit resulteert in ernstige schendingen van de privacy van cliënten, die niet alleen het vertrouwen van jouw cliënt ondermijnen, maar ook juridische gevolgen hebben. Daarom is het van cruciaal belang dat je strenge beveiligingsmaatregelen implementeert en onderzoekt of de legaltech voldoet aan de geldende privacywetgeving.
3. Hoe zit het met databeveiligingsprotocollen?
Het gebruik van diverse kleine AI-toepassingen leidt tot een complex ICT-landschap waarin databeheer en beveiliging een behoorlijke uitdaging zijn. Daarom is het belangrijk om nauw samen te werken met IT-teams en deskundigen op het gebied van databeveiliging. Zorg dat er robuuste databeveiligingsprotocollen worden geïmplementeerd die regelmatig worden bijgewerkt, zodat je veranderende bedreigingen en nieuwe technologieën kunt bijbenen.
4. Hoe vaak worden databases bijgewerkt?
Juridische zoekmachines laten soms informatie weg in zoekresultaten, of rangschikken deze op een ongebruikelijke manier. Dit betekent dat je een goed begrip moet hebben van hoe deze systemen werken. Bovendien verandert juridische informatie snel, dus moeten databases regelmatig worden bijgewerkt om ervoor te zorgen dat je werkt met de meest recente informatie. Wanneer je met legaltech aan de slag gaat, is het belangrijk om een AI-systeem te kiezen dat regelmatig zijn databases bijwerkt met actuele informatie en dat na de toevoeging van nieuwe data ook zijn werking opnieuw test.
Als je een dergelijke evaluatie van OpenAI’s ChatGPT wilt maken, staat je een lange en vruchteloze zoektocht te wachten. Vorig jaar bracht OpenAI een technisch rapport van 98 pagina’s uit bij hun nieuwste large language model, GPT-4. Ondanks het feit dat het nieuwe taalmodel veel academische examens, zoals het Uniform Bar Exam, met succes doorstaat, was er veel kritiek van AI-onderzoekers, die erop wijzen dat het rapport op geen enkele zinvolle manier transparant is. Het rapport vermeldt expliciet: "Gezien het concurrerende landschap en de veiligheidsimplicaties van grootschalige modellen, bevat dit rapport geen details over de architectuur (inclusief de modelgrootte), hardware, trainingsberekeningen, datasetconstructie, trainingsmethode."
Innovatie en stabiliteit in balans
Bij Wolters Kluwer experimenteren we al enige tijd met AI. Hierbij ligt de focus op het in balans brengen van innovatie en stabiliteit. We begrijpen dat je veel waarde hecht aan stabiliteit in een juridische sector die continu in beweging is. Dit is dan ook bepalend voor onze benadering van innovatie. We streven ernaar om gestaag te evolueren zonder verstoringen te veroorzaken.
Onze primaire doelstelling is om ervoor te zorgen dat de producten die wij in de markt zetten niet alleen innovatief zijn, maar ook stabiel en betrouwbaar zijn. We ontwerpen onze oplossingen om een integraal onderdeel van jouw ecosysteem te vormen. Hierdoor kun je efficiënter werken en jouw cliënten beter van dienst zijn.
Wij geloven echter dat het belangrijk is om niet alleen te kijken naar hoeveel tijd je bespaart, maar ook naar hoe onze oplossingen de waarde, bruikbaarheid en betrokkenheid van jouw advies aan cliënten verbeteren. We verzamelen voortdurend feedback van onze klanten en verwerken die op basis van traditionele onderzoeksmethoden. We zijn ervan overtuigd dat deze werkwijze ons een beter inzicht geeft in of we de juiste dingen doen en of we voldoen aan jouw behoeften.