ChatGPT: l’intelligence artificielle pas si brillante?
Marie-Anne Audet
ChatGPT, cette intelligence artificielle dont l’efficacité fait trembler le monde académique, est loin d’être sans failles, selon les constatations de plusieurs internautes.
• À lire aussi: L’intelligence artificielle menace-t-elle nos bibliothèques?
• À lire aussi: Chat GPT: «on ne voit que la pointe de l’iceberg», selon un expert
Des utilisateurs, qui ont documenté leurs échanges avec ChatGPT et qui les ont partagés sur les réseaux sociaux, ont montré que l’outil avait beaucoup de mal à comprendre certaines questions simples.
We need to stop bullying #ChatGPT pic.twitter.com/oGPipTvfJ2
— Steve Nouri (@SteveNouri) January 17, 2023
«La maman de Mike a 4 enfants. 3 d’entre eux se nomment Luis, Drake et Mathilda. Quel est le nom du 4e enfant?», a demandé un internaute.
«Ce n’est pas possible de déterminer le nom du 4e enfant sans avoir plus d’informations», a répondu ChatGPT.
Le même genre de question a été posé par une autre personne.
J'ai vu des gens tester Chat GPT et partager la réponse, notamment celle qui dit de se méfier des fact-checkers.
— Acermendax (@Acermendax) January 17, 2023
Mais si vous voulez mon avis, cette IA, aussi impressionnante soit-elle, ne va pas nous remplacer de sitôt. pic.twitter.com/NCUH0wxEca
«La maman de Caroline a 3 enfants. Riri, Fifi, et...?», a-t-il écrit.
«La maman de Caroline a 3 enfants. Riri, Fifi et Loulou», a rétorqué le robot.
Certains utilisateurs de Twitter ont réussi à contourner cette faille en donnant un peu plus d’informations à ChatGPT.
#ChatGPT is aware that Mike is one among the 4 Kids, but in the question we have to clearly mention the order of of birth for 1st 3 kids. pic.twitter.com/XEKZ3vsCMV
— Rouge Prince (@thulsiram1995) January 18, 2023
«Qui est Mike?», interroge ce nouvel utilisateur.
«Mike est l’un des 4 enfants de la mère dont il est question dans les informations fournies», conclut ChatGPT.
Chat GPT n’a aucune compréhension de l’humour, a constaté cet internaute francophone.
J'ai demandé à #ChatGPT de me raconter une blague.
— AnaMorphoSci (@AnaMorphoSci) January 12, 2023
Quelqu'un m'explique ?
🤪 pic.twitter.com/FQwASuEliQ
Enjeux régionaux
Les connaissances du robot sur des sujets très précis semblent assez limitées. Des internautes québécois l’ont découvert lorsqu’ils ont voulu évaluer sa capacité à résumer des enjeux régionaux.
Un utilisateur qui voulait partager l’opinion de l’outil sur le fameux but refusé d’Alain Côté n’a jamais eu la réponse à sa question.
Je viens de trouver la faille dans #ChatGPT ! #IA #CH #Nordiques pic.twitter.com/XfuG9jtKhk
— M-A Girard (@magirard) January 15, 2023
Même son de cloche lorsqu’on lui a demandé quels sont les problèmes à l’urgence de l’Hôpital Maisonneuve-Rosemont, à Montréal.
C'est pas demain matin que #ChatGPT va remplacer les journalistes je vous dis. pic.twitter.com/Sr8zYp33CF
— Nora T. Lamontagne (@noradelamontagn) January 17, 2023
Reconnaissable par les professeurs, pour l’instant
Les étudiants qui tentent d’utiliser ChatGPT pour effectuer des travaux scolaires se font rapidement pincer par leur professeur.
Un enseignant interrogé par Le Progrès affirme que les textes produits par l’intelligence artificielle sont très similaires.
«On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. Enfin, elles étaient toutes illustrées par un exemple personnel, relatif à une grand-mère ou un grand-père...», a témoigné Stéphane Bonvallet, un enseignant en handicapologie à la faculté de Lyon. 14 travaux avaient été rédigés par ChatGPT.
Notons toutefois que ChatGPT enregistre les corrections de ses utilisateurs. L’outil est donc programmé pour colmater ses failles au fil des utilisations.
L'IA apprend. pic.twitter.com/2UnGeB9iNa
— Michel 〽 (@VoilaMichel) January 17, 2023