Men working on Laptop
Compliance17 september, 2024

ChatGPT gebruiken als preventieadviseur? Dit zijn de risico's



ChatGPT kan de taak van de preventieadviseur gemakkelijker maken bij het formuleren van veiligheidsadviezen, de opmaak van risicoanalyses of veiligheidsinstructies. Maar: ChatGPT kan ook ongewenste effecten met zich meebrengen. Welke risico's loopt u? 

Bron: Jan Dillen, senTRAL

Een recent artikel 'The risks of using ChatGPT to obtain common safety-related information and advice' (Oiedo-Traspalacios et al., 2023) brengt de mogelijkheden en de risico's van ChatGPT voor preventieadviseur in kaart.

De onderzoekers hebben ChatGPT geanalyseerd in negen cases, op verschillende veiligheidsgebieden, zoals het gebruik van mobiele telefoons tijdens het rijden, valpreventie bij ouderen, een interventie bij een collega die overspannen is, het beheer van functievereisten om burn-out te voorkomen of vermoeidheid bij het bedienen van zware machines.

Wat zijn risico’s bij het gebruik van ChatGPT?

De conclusie is dat er significante risico's bestaan bij het gebruik van ChatGPT door de preventieadviseur voor het bekomen van veiligheidsinformatie en het geven van veiligheidsadvies. ChatGPT gaf regelmatig onjuiste en zelfs schadelijke informatie. Dat kan leiden tot gevaarlijke situaties. Ook benadrukte ChatGPT te vaak de individuele verantwoordelijkheid van de werknemer zonder rekening te houden met de systeemfactoren waarbinnen deze individuele werknemer moet werken.

Het gebruik van ChatGPT kan leiden tot een denkfout, de ‘ecologische fallacie’. Bij deze denkfout worden kenmerken van een gehele statistische populatie toegekend aan delen van die populatie. In de context van veiligheid wil de ‘ecological fallacy’ zeggen dat ChatGPT algemene veiligheidsadviezen geeft die niet van toepassing zijn op specifieke groepen of bepaalde contexten, en met name niet op individuele gebruikers. Dat betekent dat de veiligheidsadviezen die ChatGPT geeft, niet altijd relevant of juist zijn voor iedereen, omdat ze gebaseerd zijn op algemene trends of gemiddelden die niet noodzakelijkerwijs op elk individueel veiligheidsprobleem van toepassing zijn.

ChatGPT kan in bepaalde gevallen, zoals bij het adviseren over het gebruik van mobiele telefoons tijdens het rijden, adviezen geven die niet volledig aansluiten bij de meest actuele veiligheidswetgeving of de nieuwste wetenschappelijke inzichten. In andere situaties, zoals bij het adviseren over vermoeidheid bij het bedienen van zware machines, ontbreekt volgens de auteurs de aanbeveling om medische hulp in te roepen, terwijl dat een belangrijke veiligheidsmaatregel is.

Verder kan ChatGPT gebruikers overstelpen met informatie en aanbevelingen zonder deze te rangschikken op relevantie of prioriteit. Dat kan ertoe leiden dat gebruikers niet weten welke adviezen het meest van toepassing zijn op hun situatie.

Ten slotte is er de mogelijkheid dat ChatGPT gebruikers misleidt door overtuigend maar onjuist advies te geven, wat kan leiden tot een valse gevoel van veiligheid.

Conclusie

Het onderzoekt herinnert er ons aan dat, hoewel AI-technologie blijft vooruitgaan, we voorzichtig moeten zijn met het gebruik ervan. Wees u dus bewust van de beperkingen van de technologie voor u besluiten trekt. Veiligheidsinformatie en -advies dat via ChatGPT wordt verstrekt moet gecontroleerd worden door deskundigen. Met zekerheid te adviseren? Ontdek senTRAL en krijgt 24/7 toegang tot up-to-date HSE-expertise.

HSE

HSE Newsletter

Ontvang voortaan maandelijks waardevolle inzichten in uw mailbox.
Back To Top