Page 28 sur 28 • 1 ... 15 ... 26, 27, 28
- BalthazaardVénérable
Ce qui me fait rire c'est que chatgpt se dedouane en disant qu'il ne fait que donner les informations les plus pertinentes et courantes trouvées sur le net...sans préjuger de la justesse!! On en déduit donc que ce problème est très difficile et que sa solution est très bien cachée sur internet.
- Pat BÉrudit
Bon, finalement, même le QCM sur les suites, il n'est pas valable.
Du coup je lui ai demandé sa réponse et qu'il m'explique pourquoi ; il a trouvé son erreur avec de plates excuses.
Moralité, ne pas faire confiance à chatGPT pour des maths... Oui on le savait déjà, mais quand même c'est flagrant...
La bonne réponse n'y est pas... j'ai quand même dû vérifier deux fois, il m'a fichu un doute.chatGPT a écrit:Question 5 : Dans la suite géométrique (vn)) de premier terme v1=5 et de raison q=3, quel est le 4ème terme v4 ?
a) 45
b) 35
c) 125
d) 15
Du coup je lui ai demandé sa réponse et qu'il m'explique pourquoi ; il a trouvé son erreur avec de plates excuses.
Moralité, ne pas faire confiance à chatGPT pour des maths... Oui on le savait déjà, mais quand même c'est flagrant...
- Manu7Expert spécialisé
N'oublions pas les premières pages de ce fil et la vidéo qui expliquent le fonctionnement de chatgpt, son but n'est pas de trouver la vérité. Donc ce n'est pas logique de dire que chatgpt a fait une erreur. Chatgpt discute très bien comme prévu.
- CasparProphète
Je ne sais pas si je l'ai déjà dit ici mais je lui ai déjà demandé de me résumer un roman que je connais très bien (pour le tester): il m'a pondu trois résumés différents et tous truffés d'erreurs avant d'admettre que finalement il ne pouvait pas vraiment répondre. Est-il programmé pour donner une réponse coûte que coûte ?
Il s'était aussi trompé sur des informations aussi basiques que la nationalité de certains auteurs.
Il s'était aussi trompé sur des informations aussi basiques que la nationalité de certains auteurs.
- PonocratesExpert spécialisé
C'est un agent conversationnel qui met à la suite les uns des autres, les mots qui ont le plus de probabilité de se suivre. Si vous voulez quelque chose qui au moins renvoie à des sources (ce qui limite un peu les hallucinations) utilisez plutôt perplexity.
_________________
"If you think education is too expensive, try ignorance ! "
"As-tu donc oublié que ton libérateur,
C'est le livre ? "
- Manu7Expert spécialisé
Dans ChatGpt il y a Chat donc il est programmé pour Chater, bref on discute avec une IA. Si on voulait que ses réponses soient vraies avec un taux d'erreur inférieur à 5% alors cela prendrait un temps énorme et la plupart des questions resteraient sans réponse.
- CasparProphète
Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
- profdoctoujoursNiveau 5
Je n'ai pas l'impression qu'il soit paramétré pour évaluer la pertinence de ses réponses, il se contente d'évaluer la séquence de mots la plus probable. C'est pour ça aussi qu'il invente des sources. Il regarde sans doute à quoi ressemble les sources sur internet, et "imagine" à quoi ressemblerait une source, mais sans se soucier de si ça existe ou non du moment que ça fait vrai. Ca doit être la même chose quand il fait un résumé je suppose.
C'est sûr que c'est un point à revoir dans sa programmation.
C'est sûr que c'est un point à revoir dans sa programmation.
- PrezboVénérable
Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
- nonoNiveau 10
Prezbo a écrit:Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
_________________
Prof en LP
- CasparProphète
Prezbo a écrit:Caspar a écrit:Je trouve quand même étrange qu'il ne dise pas "je ne sais pas".
C'est un élève qui bluffe, en fait.
C'est exactement l'impression que j'ai eue.
Page 28 sur 28 • 1 ... 15 ... 26, 27, 28
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum