ChatGPT kan arboprofessionals op verschillende manieren helpen. Een paar mogelijke toepassingen: informatieverstrekking, risicobeoordeling en trainingsondersteuning. Zegt de chatbot zelf.
In no-time antwoord, met een disclaimer erbij
Op de vraag ‘Hoe kan ChatGPT arboprofessionals helpen?’ geeft de chatbot zelf in no-time antwoord. “ChatGPT kan informatie verstrekken over arbeidsveiligheid, regelgeving, best practices en procedures (…) Arboprofessionals kunnen scenario’s en situaties voorleggen aan ChatGPT om te helpen bij het beoordelen van mogelijke risico’s op de werkplek (…)”
“ChatGPT kan een aanvulling zijn op trainingsprogramma’s door extra uitleg te geven over complexe onderwerpen of door vragen te beantwoorden van werknemers die de training hebben gevolgd. Hierdoor kunnen arboprofessionals meer efficiënte en effectieve trainingssessies organiseren.”
De chatbot voegt er ook meteen een disclaimer aan toe: “Het is belangrijk op te merken dat ChatGPT, hoewel het een waardevolle bron van informatie kan zijn, geen vervanging is voor de expertise van een gecertificeerde arboprofessional. Het is altijd raadzaam om professioneel advies in te winnen bij gecertificeerde deskundigen voor specifieke en complexe situaties op de werkplek.”
ChatGPT fantastische hulp bij kennisontsluiting
Sinds eind 2022 kunnen we alles aan ChatGPT vragen. Ook op vragen over veilig werken geeft de chatbot op basis van kunstmatige intelligentie indrukwekkende antwoorden. Wat kun je daarmee als arboprofessional? Hoe goed is het? Stelt het niks voor of maakt artifical intelligence de arboprofessional straks overbodig? Waarom als werkgever niet ‘zelf de was doen’?
“ChatGPT is een fantastische hulp bij het ontsluiten van kennis”, reageert Ruud van der Burg, bedrijfskundige en expert in robotica. “Je beschikt er in feite mee over alle kennis van de wereld. Dat kan helpen bij het schrijven van stukken en bij de beoordeling van risico’s. Als je voor vraagstukken zelf geen oplossing ziet, kan deze chatbot je geweldig op weg helpen.”
Maar pas op, waarschuwt Van der Burg. “ChatGPT verzint er ook gewoon een heleboel onzin bij. Het genereertantwoorden. Je moet zelf kunnen toetsen of een antwoord hout snijdt. Want als je even volhoudt, is voor de chatbot een plus een drie. Je moet informatie wel zelf op waarde kunnen beoordelen.”
Als enige kennisbron risicovol voor veiligheidsadvies
Oscar Oviedo Trespalacios is onderzoeker aan de TU Delft. Hij onderzocht met een internationaal consortium de mogelijkheden van ChatGPT op het gebied van veiligheidsadvies.
Dit onderzoek met de titel The Risks of Using ChatGPT to Obtain Common Safety-Related Information and Advice is kritisch. Want de onderzoekers concluderen dat er aanzienlijke risico’s kunnen ontstaan bij het gebruik van deze chatbot als bron van informatie en advies voor veiligheidsgerelateerde kwesties.
Oviedo Trespalacios onderscheidt twee toepassingen bij het gebruik van de chatbot. “ChatGPT is fantastisch voor het schrijven van teksten; je kunt er tekst mee produceren en het kan heel goed teksten samenvatten. Maar voor het vergaren van kennis heeft het veel beperkingen. Als enigekennisbron zou ik het beleidsmakers en arboprofessionals zeker niet aanraden”, zegt de onderzoeker.
Bij advies ChatGPT mist de context van de vraag
Het multidisciplinaire consortium van experts analyseerde negen casussen binnen verschillende veiligheidsdomeinen. Een daarvan was telefoongebruik vermijden tijdens autorijden.
Het advies daarover door ChatGPT is volgens de onderzoekers afhankelijk van de context en de gebruikte databronnen. In een advies wordt bijvoorbeeld geen rekening gehouden met beschikbare applicaties voor bellen in de auto. Telefoongebruik is volgens de chatbot wel toegestaan als je stilstaat voor een stoplicht.
Oscar Oviedo: “ChatGPT genereert informatie, maar niet op expertniveau. Het kan een algemeen antwoord formuleren, maar houdt geen rekening met individuele situaties. Het mist namelijk de context van je vraag. Het kan niet omgaan met complexiteit, terwijl dat nodig is voor een goed advies.”
Veiligheidsvraagstuk vergt multidisciplinaire insteek
Veiligheidsvraagstukken vragen juist vaak om multidisciplinaire oplossingen, rekening houdend met wetgeving, human factors, techniek en arbeidshygiëne, stelt Oviedo. “Die invalshoeken kan ChatGPT niet samenvoegen. Afhankelijk van de insteek van een vraag krijg je verschillende antwoorden.”
Actuele studies en inzichten zijn sowieso niet verwerkt in de adviezen van de chatbot. Oviedo: “Er ontbreken bronnen in de database die ChatGPT daardoor niet in een antwoord betrekt. Ook houdt de bot er geen rekening mee dat sommige conclusies van studies nog ter discussie staan. Dat kunnen deskundigen wel.”
De arbodeskundige krijgt er een hulpje bij
Ruud van der Burg verwacht dat het werk van arboprofessionals zal veranderen, ondanks de tekortkomingen van AI.
“Ik voorzie dat standaard arbodienstverlening over enkele jaren geautomatiseerd is. Voor een organisatie die geen bijzondere dingen doet, zou de digitale assistent straks een veiligheidskundig rapport kunnen opstellen. Het blijft zinnig dat de professional dat nog beoordeelt, maar de deskundige krijgt er een hulpje bij.”
Wellicht is de oudere professional nog wat afwachtend. Maar jongeren zullen de nieuwe ontwikkelingen gaan toepassen, denkt hij. “Tijdens de industriële revolutie vervingen machines onze spierkracht. De huidige grote bedrijven hebben daar goed gebruik van gemaakt. Nu gaat computerkracht onze hersencapaciteit vervangen.”
Al snel: online arbodienstverlening voor mkb’ers
“Het zal mij dan ook niets verbazen als straks een Amerikaans bedrijf online arbodienstverlening aan mkb’ers aanbiedt. Met een achterban van freelance professionals die eventueel ter plaatse voor opvolging van adviezen zorgt. Dat kan best snel gaan.”
Van der Burg noemt nog wel een andere beperking van AI. “Het menselijke aspect, waar je mensen wel en niet op kunt aanspreken en op welke manier, zal de kunstmatige intelligentie voorlopig niet beheersen. Dat gaat over opties en de omgang met elkaar. Op het moment dat het lastiger wordt, wil je toch met elkaar om tafel zitten en elkaar in de ogen kunnen kijken.”
Niet gebruiken bij ingewikkelde risicoanalyse
Dat laatste beaamt Oscar Oviedo. “ChatGPT is een start en het zal als instrument gebruikt gaan worden. In eenvoudige, algemene en goed bestudeerde casussen is het misschien bruikbaar bij risicoanalyses. Maar gebruik het vooral niet als het ingewikkelder wordt.”
Maar wat dan wel? “Maak liever gebruik van transparante kennisbronnen als Wikipedia of lees een boek. Dan kun je zien welke bronnen zijn verwerkt, en hoe. Dat weet je bij ChatGPT allemaal niet. Vergelijk antwoorden van deze chatbot dus altijd met andere, officiële bronnen, zoals webpagina’s van ministeries en officiële instanties.”
En die disclaimer, om altijd nog een deskundige te raadplegen? Oviedo: “Laten we eerlijk zijn: niemand leest die waarschuwing. Een waarschuwing is leuk en die is te waarderen, maar daar mag je niet op vertrouwen.” Net zomin als op ChatGPT zelf dus, lijkt het.
Tekst | Walter Baardemans