Miljoenen stukken tekst analyseren
Een large language model bestaat uit algoritmes die miljoenen stukken tekst analyseren om te begrijpen hoe taal werkt, en vervolgens deze kennis gebruiken om menselijke teksten te genereren. Met generatieve AI creëer je geautomatiseerd content op basis van zogeheten prompts: gespecificeerde vragen of verzoeken van gebruikers. Daarmee genereer je diverse zaken:
- Teksten zoals samenvattingen of antwoorden op vragen. Bekende tools hiervoor zijn Gemini van Google, ChatGPT en Copilot van Microsoft.
- Afbeeldingen in allerlei stijlen en over verschillende onderwerpen. Denk aan Dali van Microsoft of Midjourney.
- Video’s voor animatie of met levensechte beelden. Bijvoorbeeld Synthese of Wondershare.
- Audiofragmenten zoals stemmen (bijvoorbeeld Lovo of Speechify) of muziek (bijvoorbeeld Suno, Mubert of Soundraw).
- En als laatste: code voor het programmeren van computerprogramma’s (bijvoorbeeld Github-copilot of Codeium).
Prompts superbelangrijk
“Let wel, bij dit soort toepassingen lijkt het alsof je tegen een klein kind praat dat niet begrijpt wat je bedoelt”, zegt Urlus. “Ik gaf onlangs een presentatie over XBRL en ik wilde daarom een plaatje van een zaal met mensen die naar een presentatie over XBRL luisteren. Je vertelt dan letterlijk wat je wil en toch klopt de uitkomst niet of niet helemaal. Je moet dan dus concreet vertellen waar het fout gaat en waar je verandering wilt.” Prompts zijn dan ook superbelangrijk bij AI, beschouwt Urlus. “Vertel daarom wat voor een rol de AI-tool moet aannemen. ‘Gedraag je als mijn docent Engels en vergroot mijn woordenschat, inclusief Engelse voorbeeldzinnen.’ Hoe nauwkeuriger je vragen zijn en hoe meer context je prompts bevatten, hoe beter ChatGPT begrijpt wat voor een soort antwoord je zoekt. Prompts maken is een kunst op zich. Maar als je uit het niets iets wilt creëren en er weinig referentiemateriaal is, dan is hetgeen dat gecreëerd wordt echt onbetrouwbaar. Daar moet je je bewust van zijn. Zeker als accountant.”
AI weet niet wat er niet is
Maar stel het is alleen één document waar je AI op loslaat? Urlus: “Dan werkt het beter. Bijvoorbeeld als je een samenvatting wilt genereren van een rapport dat je zelf hebt geschreven. Of als je ingeeft dat je de tien belangrijkste punten uit een document wilt hebben. Dan is het antwoord redelijk betrouwbaar. Het is wel verstandig om dat antwoord nog te checken voordat je het als accountant naar je klant stuurt.” Ook kan het voor de accountant lonen om, voordat hij of zij naar een klant gaat, een AI-tool te vragen om de belangrijkste risico’s op te noemen die voor een bedrijf in een bepaalde branche gelden. “Zie het op die manier als een hulpje. Maar let daarbij wel op. AI haalt al zijn kennis van het internet: wat er niet op het internet staat, weet AI dus ook niet. Dus kan de lijst met risico’s nooit volledig zijn. Wees je ervan bewust dat je beperkt bent in je informatie en blijf zelf nadenken. Klopt wat ik zie? Steun niet volledig op de gegeven informatie, maar laat het als inspiratie dienen.”
Ben je zeker dat je volledig bent?
AI is als een virtuele stagiair, zegt Urlus. “Maar dan wel een die je moet uitleggen hoe deze moet werken, waarvan je zijn werk moet controleren en die ook nog eens niet thuis kan geven.” AI gebruiken voor het samenstellen of auditen, gaat in de kmo-praktijk wat betreft Urlus te ver. “Je moet dan namelijk zeker weten dat je volledig bent met de gegevens die je erin stopt en eruit krijgt. En dat weet je niet.” Toepassing ziet Urlus wel in fraudedetectie. “In Japan lieten ze tien jaar geleden al software los op bestuursverslagen van beursgenoteerde bedrijven om er een patroon in te ontdekken. Maar dan heb je alleen maar vermoedens en signalen van eventuele fraude. Je weet ook daar niet of je volledig bent en dat maakt het erg lastig. Vergelijk het met software die wordt getraind om vlekjes te herkennen om huidkanker tegen te gaan. Daar weet je ook niet 100 procent of je alle vlekjes herkent.”