"Le Créateur." Centre de gravité actuel.

Entraîné sur d'énormes corpus de texte, image et code. Produit du contenu nouveau et fluide à partir d'un prompt. Tous les outils IA connus se trouvent ici.

Prompt en entrée. Contenu fluide en sortie.

Un modèle transformer tokenise, embed, attend. De 175 milliards à plus d'un trillion de paramètres. Il prédit le token suivant en boucle jusqu'à ce que la réponse soit complète. Texte, code, données structurées, images, plans. Tout sort du même mécanisme.

Forces et limites, sans détour.

Forces

Vitesse, largeur, fluence dans tout domaine où il a vu des données d'entraînement. Brouillons, résumés, traductions, code, analyse. En secondes, dans tout ton.

Limites

Pas de connaissance temps réel sauf outils dédiés. Confabule quand il est incertain (hallucination). Le coût croît linéairement avec la longueur. Ne raisonne pas vraiment depuis les premiers principes.

Besoin de gouvernance

Human-in-the-loop sur tout ce qui est client, régulé ou financier. Audit trail des prompts. Vérification de sortie avant action conséquente.

Hallucination.

Le modèle produit du texte qui sonne juste mais qui n'est pas ancré dans les faits. Mitigations : RAG (donner vos documents au modèle), instructions explicites "je ne sais pas", et vérification contre des sources autorisées avant d'agir.

Qu'est-ce qui empêche une mauvaise réponse de partir ?

Si la réponse est "l'utilisateur", vous avez un problème d'audit qui arrive. Inscrivez l'étape de vérification dans le workflow, pas dans l'habitude de lecture humaine.

Vous voulez la version boardroom de ça ?