ChatGPT : va-t-on vers une redéfinition de notre humanité?
L’avènement des modèles de langage – LLM, marque une évolution dans notre intégration de l’IA, et soulève des questions quant à l’avenir de l’emploi et la relation entre l’homme et la machine.
Si certaines craintes sont légitimes, elles ne doivent pas obscurcir notre vision de l’avenir : en ce sens, continuer à nous positionner en concurrence de la machine – voir à agir comme elle, contribue seulement à davantage alimenter nos peurs au gré de l’évidence toujours plus claire qu’une telle compétition est perdue. Plutôt que de céder à une défiance, chacun doit ainsi saisir l’opportunité que nous offre l’IA de nous recentrer sur ce qui fait l’essence de notre humanité. Que cela soit dans sa conception ou son usage, comprendre le fonctionnement de ces modèles et leurs différences par rapport au cerveau humain, et amorcer le repositionnement de notre expertise, ouvre de brillantes perspectives.
Si ChatGPT surprend par sa capacité à produire des réponses d’un naturel qui rappelle celui des Hommes – allant jusqu’à catalyser un anthropomorphisme toujours plus marqué, il convient de rappeler l’importance accordée à l’expertise humaine dans son entraînement, contrairement à d’autres modèles (e.g., BERT). En ce sens, en plus du masquage de langage, qui consiste à cacher des mots dans des phrases diverses et à donner au modèle la tâche de découvrir les mots cachés, l’entraînement de ChatGPT requiert que des humains évaluent les résultats en fonction de divers critères tels que la pertinence des réponses, l’éthique et le respect des valeurs humaines. Une fois cette première étape terminée, l’apprentissage par renforcement est utilisé afin d’améliorer les performances du modèle : ici, le principe est alors de donner des récompenses au modèle, positives ou négatives, en fonction de ses actions. C’est par l’intégration de ces récompenses que le modèle apprend les règles et les bonnes stratégies de réponses. Dans le cas de ChatGPT, plus les réponses générées sont compatibles avec celles données par le modèle de récompense, qui a appris les préférences humaines, plus le modèle est récompensé. Aussi, ce processus de conception démontre l’importance de l’expertise humaine dans l’entraînement, pour assurer performance et éthique. Les modèles qui n’incluent pas ces préférences humaines dans leur entraînement continuent ainsi d’avoir des difficultés pour atteindre des performances aussi bonnes que celles d’une personne.
Source: Forbes
Les plus commentés