Met het verzamelen van informatie door prompt engineering is niet altijd terug te vinden, waar deze informatie vandaan komt. Niet elke Gen AI-tool geeft (herleidbare) bronvermeldingen. Ook bestaat het risico, dat de tool “hallucineert”, ofwel onjuiste of verzonnen informatie als output presenteert.
Kritisch deze informatie beoordelen wordt steeds belangrijker!!
Valkuil: Een risico is het overmatige vertrouwen in Gen AI-gegenereerde teksten, wat kan leiden tot het niet herkennen van fouten of vooroordelen in de informatie. Dit wordt bias genoemd. Zeker ChatGPT klinkt vaak zeer overtuigd van de eigen zaak, waardoor het gemakkelijk is om alles te geloven wat deze Gen AI-tool zegt.