Det er super udfordrende at udvikle software applikationer med store sporgmodeller! Hovedsagligt fordi man ikke kan 100% styre med hvad AI modellerne finder på at generere.
Der bliver dog forsket intensivt i metoder til at prompte sprogmodellerne så de bliver mere konsistente og nøjagtige i deres output. Ja, der er faktisk efterhånden opstået så mange metoder til at prompte sprogmodeller at det er blevet en hel profession i sig selv at gøre.
Den nye profession indenfor AI og Machine Learning er efterhånden blevet døbt Prompt Engineering. Og hvis man tror at det bare en døgnflue trend, som handler om at flere og flere folk har det sjovt med ChatGPT, så er det fordi man ikke opmærksom på hvad der hvad der rør sig. Man nemlig nogle helt nye ting med den her teknologi og på nuværende tidspunkt virker det kun til at være fantasien som sætter grænserne for hvad der er muligt.
Men det der med at sætte store sprogmodeller i produktion uden at være helt sikker på hvad de fortæller brugerne, er lidt en pain for mange. Derfor bliver det i stigende grad nødvendigt med "PromptOps" i takt med at Prompt Engineering af vinder frem i flere og flere software applikationer. Altså en måde hvorpå man struktureret kan styre sin prompt udvikling. Hvis du vil have et lille smugkig ind i fremtiden for dette felt, vil jeg anbefale, at du sætter dig ind i open source-projektet og Python-pakken langchain.
https://github.com/hwchase17/langchain
Hvis du er interesseret i at forstå, hvad det her Python bibliotek kan gøre for udvikling af applikationer med generativ AI, kan jeg garantere et mind-blow!