Entraîné sur d'énormes corpus de texte, image et code. Produit du contenu nouveau et fluide à partir d'un prompt. Tous les outils IA connus se trouvent ici.
Un modèle transformer tokenise, embed, attend. De 175 milliards à plus d'un trillion de paramètres. Il prédit le token suivant en boucle jusqu'à ce que la réponse soit complète. Texte, code, données structurées, images, plans. Tout sort du même mécanisme.
Vitesse, largeur, fluence dans tout domaine où il a vu des données d'entraînement. Brouillons, résumés, traductions, code, analyse. En secondes, dans tout ton.
Pas de connaissance temps réel sauf outils dédiés. Confabule quand il est incertain (hallucination). Le coût croît linéairement avec la longueur. Ne raisonne pas vraiment depuis les premiers principes.
Human-in-the-loop sur tout ce qui est client, régulé ou financier. Audit trail des prompts. Vérification de sortie avant action conséquente.
Le modèle produit du texte qui sonne juste mais qui n'est pas ancré dans les faits. Mitigations : RAG (donner vos documents au modèle), instructions explicites "je ne sais pas", et vérification contre des sources autorisées avant d'agir.
Si la réponse est "l'utilisateur", vous avez un problème d'audit qui arrive. Inscrivez l'étape de vérification dans le workflow, pas dans l'habitude de lecture humaine.
Vous voulez la version boardroom de ça ?