• Olaf AI
  • Posts
  • Nieuw onderzoek: Prompten wordt minder belangrijk

Nieuw onderzoek: Prompten wordt minder belangrijk

Voor veel taken maakt het niet veel uit hoe goed je kan prompten.

Afgelopen week betrapte ik mezelf erop dat ik vijf keer dezelfde vraag aan ChatGPT stelde. Elke keer net iets anders geformuleerd, hopend op een beter antwoord.

Herkenbaar?

Toen stuitte ik op een tweet van Ethan Mollick (schrijver van het boek co-intelligence, dat in Nederland door Alexander Klöpping wordt uitgegeven)

Hij beschreef nieuw onderzoek dat mijn kijk op prompten veranderde.

Het blijkt dat we onze tijd verspillen - en dat geldt waarschijnlijk ook voor jou.

Maar niet altijd.. Ik leg het uit.

TL;DR

  • Grote taalmodellen worden steeds minder gevoelig voor hoe je iets vraagt

  • Voor technische en creatieve taken blijft precieze prompting belangrijk

  • Het zelfvertrouwen van het AI-model bepaalt je promptingstrategie

Het Einde van Prompt Engineering?

Weet je nog toen we dachten dat het perfect formuleren van prompts de sleutel was tot succes met AI? Ik wel.

Tijdens mijn kennissessies besteed ik veel tijd aan het uitleggen van de perfecte promptingtechnieken.

Maar er is iets interessants aan de hand. Onderzoekers hebben recent met behulp van een framework genaamd ProSA duizenden verschillende prompts getest op AI-modellen. De resultaten zijn verrassend.

Voor de meeste dagelijkse zakelijke vragen geven de nieuwste AI-modellen consistente antwoorden, ongeacht hoe je het vraagt.

Het tijdperk van het uit je hoofd leren van promptsjablonen loopt ten einde - althans, voor basistaken.

Wanneer prompting nog steeds belangrijk is

Wanneer we met het team van NinA AI een custom AI oplossing bouwen met bijvoorbeeld Microsoft Copilot Studio, maakte de exacte formulering van de prompt een enorm verschil in de kwaliteit van de output. Dat zien we iedere keer weer.

Het onderzoek bevestigt dit: technische taken zoals coderen, datavisualisatie en algoritmische problemen hebben nog steeds baat bij zorgvuldige prompt engineering.

Dus dat blijft een super belangrijk onderdeel van AI-implementaties voor bedrijven.

De nieuwe promptstrategie

Uit het onderzoek blijkt dat het vertrouwen van het model in het onderwerp direct correleert met consistente antwoorden over verschillende prompts heen.

In de praktijk betekent dit dat je bij:

  • Expert technische begeleiding

  • IT probleemoplossing

  • Business oplossingen

Nauwelijks verschil ziet in antwoorden, ongeacht hoe je de vraag stelt.

Echter bij:

  • Technische codering en datavisualisatie

  • Algoritmische probleemoplossing

  • Programmeer- en scripttaken

Maakt de formulering van je prompt nog steeds een significant verschil in de kwaliteit van het antwoord.

Conclusie

Dit onderzoek laat zien dat we bij grote taalmodellen zoals GPT voor dagelijkse vragen kunnen stoppen met het perfectioneren van prompts.

Focus je energie op de taken waar precieze prompting nog wel verschil maakt, zoals creatief werk of gespecialiseerde technische verzoeken.

Pro tip: Beoordeel het vertrouwen van het AI-model in elk onderwerp. Bij hoog vertrouwen zijn de antwoorden opmerkelijk consistent, ongeacht de formulering. Bij lager vertrouwen is dat het moment om je prompt aan te passen.

Wat is jouw ervaring? Merk je verschil in antwoorden bij verschillende formuleringen van dezelfde vraag?

P.s. knijp me even!

De 28ste organiseren we met NinA AI een NinA AI Live sessie over AI Automation. Op locatie bij ons in Amsterdam.

En het ging razendsnel, binnen een week zitten we vol.

Althans, er is nog 1 plekje over. Met 20 deelnemers gaan we een middag aan de slag met AI. Zie ik je dan?

Wat vond je van de nieuwsbrief van vandaag?
12345

Tot de volgende,

Olaf Lemmens

P.S. Wil je meer weten over hoe je AI effectief kunt inzetten in jouw bedrijf? Kijk eens op: https://www.nina-ai.nl

Of laten we online kennismaken: https://tidycal.com/olaf/kennismaking-30-minuten-olaf