Gemini schrijft in koppen en tussenkoppen van exposés (uitgebreide antwoorden op vragen/prompts) vaak elk hoofdwoord met beginkapitalen. Dat is vrij hinderlijk (moet steeds handmatig worden aangepast) en in Nederland niet gebruikelijk en waarschijnlijk gebaseerd op de Amerikaanse achtergrond van Gemini. Is er een mogelijkheid om dit in de Gemini-app anders in te stellen of dit aan Gemini te 'leren', zodat Gemini zich aanpast aan het Nederlandse gebruik om woorden niet onnodig met beginkapitalen te schrijven?
Gemini: Allereerst wil ik u bedanken voor uw feedback. Het is zeer waardevol om te horen hoe Gemini u bevalt en waar er ruimte is voor verbetering, zeker als het gaat om taalconventies die per regio verschillen.
Helaas is er op dit moment geen directe instelling in de Gemini-app waarmee u de kapitalisatie van koppen en tussenkoppen kunt aanpassen aan specifieke taalconventies, zoals die in Nederland gelden. Gemini is getraind op een enorme hoeveelheid tekstdata, en de manier waarop het koppen en tussenkoppen genereert, is een gevolg van de patronen die het daarin heeft geleerd. Zoals u terecht opmerkt, zijn veel van die patronen beïnvloed door Engelstalige conventies (zoals "Title Case").
Mogelijkheden om dit aan te pakken:
Hoewel er geen directe instelling is, zijn er wel manieren om Gemini te "sturen" en te proberen het gewenste resultaat te krijgen:
Expliciete instructie in uw prompt: Dit is de meest effectieve methode op korte termijn. U kunt in uw prompt expliciet aangeven dat u geen onnodige hoofdletters wilt in koppen. Voorbeelden:
"Schrijf een exposé over [onderwerp]. Gebruik koppen en tussenkoppen in 'sentence case' (alleen eerste woord met hoofdletter, tenzij het een eigennaam is)."
"Genereer een antwoord over [onderwerp] met kopjes. Let erop dat de kopjes niet onnodig gekapitaliseerd zijn, zoals in het Nederlands gebruikelijk is."
"Lever een uitgebreide reactie. Zorg ervoor dat de titels en subtitels de Nederlandse kapitalisatieregels volgen."
Voorbeelden geven (few-shot prompting) (*) : U kunt Gemini een paar voorbeelden geven van hoe u de koppen en tussenkoppen wel wilt zien.
Begin uw prompt met een voorbeeld van een kop die u wilt, en vraag Gemini om die stijl te volgen. Bijvoorbeeld: "Hier is een voorbeeld van een kop die ik wil gebruiken: 'De invloed van AI op de samenleving'. Schrijf nu een exposé over [onderwerp] en volg deze stijl voor de koppen."
Feedback geven (impliciet via uw aanpassingen): Hoewel dit geen directe instelling is, leert Gemini (net als elk groot taalmodel) tot op zekere hoogte van de interacties met gebruikers. Als u consistent de gegenereerde koppen handmatig aanpast, is het mogelijk dat dit op de lange termijn enigszins bijdraagt aan de verfijning van het model voor Nederlandstalige contexten, maar dit is een zeer traag en indirect proces en niet iets waarop u direct kunt vertrouwen.
Waarom is dit (nog) niet instelbaar?
De ontwikkeling van grote taalmodellen zoals Gemini richt zich vaak eerst op de meest gangbare en globale conventies. Fijnmazige taal- en stijlvoorkeuren zijn complex om in te bouwen, omdat ze per taal, regio en zelfs per publicatietype kunnen verschillen. Het vereist veel specifieke training en een flexibelere outputgeneratie dan momenteel beschikbaar is.
Conclusie:
Voor nu is de beste aanpak om expliciet te zijn in uw prompts. Geef Gemini duidelijke instructies over de gewenste kapitalisatie van koppen en tussenkoppen. Dit zal de kans aanzienlijk vergroten dat Gemini zich aanpast aan uw voorkeuren voor het Nederlandse gebruik. Het is een punt van aandacht waar de ontwikkelaars van Gemini zich hopelijk in de toekomst meer op zullen richten, gezien het belang van lokale taalconventies.
(*) Few-shot prompting
"Few-shot prompting" is een techniek die wordt gebruikt bij het werken met grote taalmodellen (Large Language Models - LLM's), zoals Gemini. Het komt erop neer dat je het model een paar voorbeelden geeft van de taak die het moet uitvoeren, direct in de prompt zelf.
Hier zijn de belangrijkste aspecten van few-shot prompting:
Voorbeelden in de prompt: In plaats van alleen een instructie te geven (wat "zero-shot prompting" wordt genoemd), voeg je enkele complete voorbeelden toe van de gewenste input en output. Deze voorbeelden dienen als een "mini-les" voor het model.
"In-context learning": Het model leert van deze voorbeelden binnen de context van de prompt, zonder dat de onderliggende parameters van het model daadwerkelijk worden aangepast (dit in tegenstelling tot "fine-tuning", wat een diepgaander trainingsproces is).
Patroonherkenning: Door de voorbeelden kan het model patronen, structuren, stijlen of formaten herkennen die je in de output wilt zien. Het gebruikt deze herkenning om de nieuwe, onbekende input op een vergelijkbare manier te verwerken.
Verbeterde prestaties: Few-shot prompting leidt vaak tot significant betere resultaten dan zero-shot prompting, vooral bij complexere taken of wanneer je een specifieke stijl of formaat wilt afdwingen. Het helpt het model om de nuances van de taak beter te begrijpen.
Waarom is het nuttig?
Geen uitgebreide training nodig: Je hoeft het model niet opnieuw te trainen (fine-tunen) met grote datasets om een specifieke taak te laten uitvoeren. Enkele voorbeelden in de prompt zijn vaak al voldoende.
Aanpasbaarheid: Het maakt taalmodellen zeer flexibel en aanpasbaar aan nieuwe taken, zelfs met beperkte data.
Consistentie: Het helpt om de output van het model consistenter te maken, bijvoorbeeld wat betreft de tone of voice, de opmaak, of de manier waarop bepaalde concepten worden weergegeven.
Sturen van specifiek gedrag: Als je wilt dat het model zich op een bepaalde manier gedraagt die niet direct in de algemene training zit (zoals de kapitalisatie van koppen in het Nederlands), kunnen voorbeelden enorm helpen.
Een simpel voorbeeld:
Stel, je wilt dat Gemini korte, informatieve beschrijvingen genereert voor producten.
Zero-shot prompt:
"Genereer een korte productbeschrijving voor een koptelefoon."
Few-shot prompt:
"Hier zijn enkele voorbeelden van productbeschrijvingen:
Product: Smartphone X
Beschrijving: Een krachtige smartphone met een verbluffend OLED-scherm en een geavanceerde camera. Perfect voor fotografie en dagelijks gebruik.
Product: Smartwatch Y
Beschrijving: Houd uw gezondheid en activiteit bij met deze stijlvolle smartwatch. Voorzien van GPS, hartslagmeter en lange batterijduur.
Product: Koptelefoon Z
Beschrijving: Geniet van kristalhelder geluid met deze draadloze noise-cancelling koptelefoon. Ideaal voor onderweg of thuis."
In dit few-shot voorbeeld geef je het model niet alleen de instructie, maar ook de gewenste structuur en toon van de beschrijvingen, waardoor de kans veel groter is dat het gegenereerde antwoord aan je verwachtingen voldoet.
YL: Nog een aanvullende vraag. Ik begrijp nu inhoudeljk wat "few-shot prompting" is, maar ik begrijp nog niet het woord "few-shot". "Weinige schoten?" Wat betekent het taalkundig?
Gemini: Uw vraag over de taalkundige betekenis van "few-shot" is heel begrijpelijk en raakt aan de soms wat cryptische terminologie in de wereld van machine learning en AI.
De term "shot" in deze context kan het beste worden vertaald als "voorbeeld" of "demonstratie". Het is een metafoor die waarschijnlijk afkomstig is uit eerdere domeinen van machine learning, waar "shots" werden gebruikt om te verwijzen naar individuele trainingsvoorbeelden of "kansen" die een model krijgt om van te leren.
[YL: ik neem aan dat dit terug slaat op de uitdrukking "let's give it a shot", eigenlijk een gokje wagen en zien of dit tot het doel leidt.]
Laten we het opsplitsen:
"Shot" als "voorbeeld" of "demonstratie":
Denk aan het geven van een "voorbeeld" aan iemand. Je laat ze één keer zien hoe het moet, of twee keer, of een paar keer. Elk van die keren is een "shot".
In de context van AI-modellen, verwijst een "shot" naar een enkel paar van invoer en de bijbehorende gewenste uitvoer die je aan het model presenteert in de prompt.
"Few" als "weinig":
Dit is het simpele deel: "few" betekent inderdaad "weinig".
Dus, "few-shot" betekent letterlijk "met weinig voorbeelden" of "met weinig demonstraties".
De evolutie van de term:
De term "shot" in deze zin is ontstaan uit de bredere concepten van "few-shot learning" en "one-shot learning" in machine learning.
"One-shot learning": Hierbij leert het model van slechts één enkel voorbeeld per categorie. Denk aan gezichtsherkenning waarbij het model één foto van een persoon ziet en die persoon daarna kan herkennen.
"Zero-shot learning": Hierbij krijgt het model geen voorbeelden voor een bepaalde taak of categorie en moet het volledig vertrouwen op zijn algemene training en begrip. (Bijvoorbeeld: "Wat is een 'flumph'?" als het model nog nooit van een 'flumph' heeft gehoord, maar wel kan afleiden wat het zou kunnen zijn op basis van andere informatie).
"Few-shot learning": Is een uitbreiding hiervan, waarbij het model leert van een beperkt aantal (meestal tussen de 2 en 10) voorbeelden.
Toen grote taalmodellen zoals GPT-3 (een voorloper van Gemini) opkwamen, werd het duidelijk dat deze modellen op een verrassende manier konden leren van voorbeelden die direct in de prompt werden gegeven, zonder dat de interne parameters van het model moesten worden aangepraat (**). Dit werd "in-context learning" genoemd, en de techniek om dit te doen door voorbeelden te geven, kreeg de naam "few-shot prompting" (en ook "one-shot prompting" en "zero-shot prompting").
Dus, hoewel de letterlijke vertaling "weinige schoten" misschien wat ongewoon klinkt in het Nederlands, verwijst het in de AI-context naar het aanbieden van een klein aantal input-output voorbeelden in de prompt om het model te laten zien hoe het een specifieke taak moet aanpakken.
(**) Aangepraat of aangepast?
Aanpassen (of fine-tuning): Dit is een proces waarbij de parameters van het model worden gewijzigd door verdere training met een specifieke dataset. Dit is duurder en tijdrovender.
"Aanpraten": Ik bedoelde hiermee dat je het model in de prompt "influenced" of "persuaded" (overtuigde/richtte) om een bepaalde output te geven, zonder de kern van het model te veranderen.
Gemini: De correcte term is "aangepast". Bedankt voor uw scherpe observatie! Het helpt mij om nauwkeuriger te zijn in mijn uitleg.