Getraind op enorme tekst-, beeld- en codecorpora. Produceert vloeiende nieuwe content op basis van een prompt. Alle bekende AI-tools zitten hier.
Een transformermodel tokeniseert, embed, attendeert. 175 miljard tot meer dan een biljoen parameters. Het voorspelt de volgende token in een loop tot het antwoord af is. Tekst, code, gestructureerde data, beelden, plannen. Allemaal uit hetzelfde mechanisme.
Snelheid, breedte, vloeiendheid in elk domein waar het trainingsdata voor heeft gezien. Concepten, samenvattingen, vertalingen, code, analyse. In seconden, in elke toon.
Geen realtime kennis tenzij tools worden gegeven. Hallucineert bij onzekerheid. Kost schaalt lineair met output-lengte. Kan niet echt vanaf de eerste principes redeneren.
Human-in-the-loop review op alles wat klantgericht, gereguleerd of financieel is. Audit trail van prompts. Verificatie van output vóór consequente actie.
Het model produceert tekst die correct klinkt maar niet gegrond is in feiten. Mitigaties: RAG (geef het model uw documenten), expliciete "ik weet het niet" instructies, en verificatie tegen gezaghebbende bronnen voor actie.
Als het antwoord "de gebruiker" is, hebt u een audit-probleem op komst. Bouw de verificatiestap in de workflow, niet in de leesgewoonten van de mens.
De boardroom-versie hiervan?