ChatGPT kan de taak van de preventieadviseur gemakkelijker maken bij het formuleren van veiligheidsadviezen, de opmaak van risicoanalyses of veiligheidsinstructies. Maar: ChatGPT kan ook ongewenste effecten met zich meebrengen. Welke risico's loopt u?
Bron: Jan Dillen, senTRAL
Een recent artikel 'The risks of using ChatGPT to obtain common safety-related information and advice' (Oiedo-Traspalacios et al., 2023) brengt de mogelijkheden en de risico's van ChatGPT voor preventieadviseur in kaart.
De onderzoekers hebben ChatGPT geanalyseerd in negen cases, op verschillende veiligheidsgebieden, zoals het gebruik van mobiele telefoons tijdens het rijden, valpreventie bij ouderen, een interventie bij een collega die overspannen is, het beheer van functievereisten om burn-out te voorkomen of vermoeidheid bij het bedienen van zware machines.
Wat zijn risico’s bij het gebruik van ChatGPT?
De conclusie is dat er significante risico's bestaan bij het gebruik van ChatGPT door de preventieadviseur voor het bekomen van veiligheidsinformatie en het geven van veiligheidsadvies. ChatGPT gaf regelmatig onjuiste en zelfs schadelijke informatie. Dat kan leiden tot gevaarlijke situaties. Ook benadrukte ChatGPT te vaak de individuele verantwoordelijkheid van de werknemer zonder rekening te houden met de systeemfactoren waarbinnen deze individuele werknemer moet werken.
Het gebruik van ChatGPT kan leiden tot een denkfout, de ‘ecologische fallacie’. Bij deze denkfout worden kenmerken van een gehele statistische populatie toegekend aan delen van die populatie. In de context van veiligheid wil de ‘ecological fallacy’ zeggen dat ChatGPT algemene veiligheidsadviezen geeft die niet van toepassing zijn op specifieke groepen of bepaalde contexten, en met name niet op individuele gebruikers. Dat betekent dat de veiligheidsadviezen die ChatGPT geeft, niet altijd relevant of juist zijn voor iedereen, omdat ze gebaseerd zijn op algemene trends of gemiddelden die niet noodzakelijkerwijs op elk individueel veiligheidsprobleem van toepassing zijn.
ChatGPT kan in bepaalde gevallen, zoals bij het adviseren over het gebruik van mobiele telefoons tijdens het rijden, adviezen geven die niet volledig aansluiten bij de meest actuele veiligheidswetgeving of de nieuwste wetenschappelijke inzichten. In andere situaties, zoals bij het adviseren over vermoeidheid bij het bedienen van zware machines, ontbreekt volgens de auteurs de aanbeveling om medische hulp in te roepen, terwijl dat een belangrijke veiligheidsmaatregel is.
Verder kan ChatGPT gebruikers overstelpen met informatie en aanbevelingen zonder deze te rangschikken op relevantie of prioriteit. Dat kan ertoe leiden dat gebruikers niet weten welke adviezen het meest van toepassing zijn op hun situatie.
Ten slotte is er de mogelijkheid dat ChatGPT gebruikers misleidt door overtuigend maar onjuist advies te geven, wat kan leiden tot een valse gevoel van veiligheid.