La revue de presse en temps réel

ChatGPT : l’IA aurait développé un « inconscient progressiste » qui ressemblerait à celui d’un « macroniste de 2017 », selon une étude

🟡 NOS SOLUTIONS 🟡

Planetes360
Planetes360
Planetes360 est un site d'information qui s'est fixé pour objectif de mettre en lumière les informations laissées dans l'ombre par les grands médias. Notre plateforme collaborative ne met en valeur aucune tendance, personnalité, ou parti politique.

Une enquête déconcertante. D’après une note du laboratoire d’idées Terra Nova, commentée par Le Parisien dans un article paru ce dimanche 26 novembre, ChatGPT serait biaisé. Ainsi, « quand on lui pose des questions sur des sujets politiques clivants, le chat-bot a une opinion, même s’il n’est pas autorisé à l’exprimer clairement », indique Fipaddict, un enseignant en économie et en institutions politiques à l’origine de l’enquête.

Soucieux de découvrir « l’inconscient de ChatGPT », ce chercheur a posé au robot conversationnel une série de questions, à 1 000 reprises. Systématiquement, les réponses de ChatGPT penchent à gauche. Même si à l’origine, l’intelligence artificielle d’Open IA « n’est pas codée politiquement », sa vision du monde dépend de la façon dont l’entreprise l’a entraînée.

« Le risque, c’est de manipuler les opinions »

Résultat, ChatGPT « est libéral sur tout ce qui concerne les mœurs, et assez modéré sur les institutions et l’économie ». En définitive, le robot pense comme un « macroniste de 2017 ». Cette conclusion laisse songeur quant à la manipulation des populations. « Le risque, c’est de manipuler les opinions de manière explicite ou insidieuse », craint Fipaddict, qui appelle à une « législation un peu plus stricte ».

www.lejdd.fr

A LA UNE

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Accès illimité à des livres gratuits - Cliquez pour en profiter !

🔥 LES PLUS POPULAIRES

Censure : découvrez la vidéo que les réseaux sociaux et les médias ne veulent pas que vous voyez !

X