Perso je ne vois aucune raison de penser que ChatGPT n'est pas intelligent, mais évidemment ça dépend de la définition qu'on donne à intelligence. Si on lui donne quelque chose de très théorique je veux bien, mais à mon sens ça ne tient pas l'analyse.
Comme tu dis : la boîte parle chinois, même si l'humain à l'intérieur ne comprend pas.
Par contre, l'arrivée des IA assez oufs (surtout à partir de GPT4o et Claude 3.5) m'a convaincu d'une chose : l'intelligence n'est pas liée à la conscience.
A mon sens les LLM dernière génération sont déjà très largement plus intelligents que la plupart des êtres humains (l'expérience empirique tout comme les benchmarks le prouvent, par exemple GPT4-o3 bat les PhD dans leurs domaines d'expertise), et pourtant ils ne sont pas conscients (je pense 🙃).
Ouais la VRAIE question c'est clairement la CONSCIENCE.
Je sais pas si j'aurais dit que les LLM sont plus intelligents que les humains par contre. Là tu prends des exploits. Mais du coup ça fait longtemps qu'on a des ordis plus intelligents qui jouent aux échecs.
Là je viens de dire CINQ fois à GPT que non Holmes Place n'a PAS de présence à Paris et même pas en France mais il a persisté à me recommander Holmes Place Bastille.
Même un humain très bête, au bout de TROIS fois il a compris quand même. Et... je sais même pas s'il aurait fini par comprendre. Sur la fin je disais des trucs "ok donne moi l'url".... "ok bah l'url que tu viens de me donner, en .fr, essaie la toi même tu vois qu'elle renvoie sur rien ?"...
Il a même pas eu l'intelligence de dire "ok bon ça fait CINQ fois que tu me dis ça et je sais que je suis pas fort dans cette tâche, peut-être que t'as raison mais je suis pas sûr".
Ce qui est fou ce sont les exploits et c'est super prometteur. Mais y'a quand même bcp bcp de fails.
Oui, c'est ce qu'on appelle la "spiky intelligence" : très performante dans certains domaines, pas du tout dans d'autre. Note qu'on utilise aussi ce terme... pour les autistes.
Nous ça nous paraît FOU qu'il comprenne pas que Holmes Place n'existe pas, mais les allistes ça leur paraît fou que ce soit difficile de détecter le second degré. Mais c'est pas un manque d'intelligence, juste une différence de fonctionnement.
De plus, tu te bases sur GPT4o, qui est quand même un modèle qui date du printemps dernier (c'est long dans une exponentielle). Les modèles de réflexion sont bien plus intelligents. Je suis quasi certain que o1 n'aurait pas fait ça (malheureusement il n'a pas accès au web).
Et d'ailleurs quand tu dis "tu prends des exploits", c'est faux, c'est justement ce qui est ouf avec o3 : il est meilleur que les humains avec un PhD, dans leur propre domaine. Mais genre dans TOUS les domaines. C'est plus du tout aussi étroit que les échecs, vraiment.
Ah non c'était sous o3 mini. Je me suis fait hyper par une vidéo donc j'ai essayé direct.
Pour le coup je pense que l'analogie avec l'autisme marche pas. Si tu m'expliques que c'est du second degré, j'intègre l'information. Après ça dépend de la définition de l'intelligence moi j'ai vraiment ce truc de "capacité à s'adapter". Là il faisait vraiment un truc qui est pour moi totalement bête : s'obstiner dans son erreur.
Et pour le truc des PhD, le truc c'est que là tu crois les démos sur parole. On a eu plein de fois ce genre d'annonces. J'attends de voir concrètement. Altman lui-même parfois il te dit ça arrive en 2025, parfois il change la définition et il dit mais non on est encore un peu loin.
Je dis pas que c'est pas vrai... mais j'attends de voir de mes propres yeux.
Ouais mais lis le dernier Pueyo : ya des PhD eux-mêmes qui disent que ça les hallucine. Ya pas que du benchmark.
Ok je suis d'accord que s'obstiner c'est bête. Mais c'est le défaut des LLM pour l'instant : les tokens de la conversation influencent beaucoup la suite. En avoir conscience est d'ailleurs hyper important pour bien les utiliser : des fois je redémarre une conversation car je veux être sûr de partir d'une base neutre.
Nan mais en fait je te crois : bien sûr qu'il va encore être bête sur quelques trucs. Mais quel humain ne l'est pas ?
Alors évidemment sa bêtise va nous paraître TRÈS bête. De la même manière qu'un chien qui n'a pas bien la permanence de l'objet va nous paraître bête. Et à côté de ça le même chien peut repérer un cancer des mois avant nous et il doit se dire "mais pourquoi ils ne sentent pas ?"
En fait comme les LLM s'expriment comme nous, on les juge avec les mêmes critères. Mais c'est juste UNE échelle.
Perso je ne vois aucune raison de penser que ChatGPT n'est pas intelligent, mais évidemment ça dépend de la définition qu'on donne à intelligence. Si on lui donne quelque chose de très théorique je veux bien, mais à mon sens ça ne tient pas l'analyse.
Comme tu dis : la boîte parle chinois, même si l'humain à l'intérieur ne comprend pas.
Par contre, l'arrivée des IA assez oufs (surtout à partir de GPT4o et Claude 3.5) m'a convaincu d'une chose : l'intelligence n'est pas liée à la conscience.
A mon sens les LLM dernière génération sont déjà très largement plus intelligents que la plupart des êtres humains (l'expérience empirique tout comme les benchmarks le prouvent, par exemple GPT4-o3 bat les PhD dans leurs domaines d'expertise), et pourtant ils ne sont pas conscients (je pense 🙃).
Ouais la VRAIE question c'est clairement la CONSCIENCE.
Je sais pas si j'aurais dit que les LLM sont plus intelligents que les humains par contre. Là tu prends des exploits. Mais du coup ça fait longtemps qu'on a des ordis plus intelligents qui jouent aux échecs.
Là je viens de dire CINQ fois à GPT que non Holmes Place n'a PAS de présence à Paris et même pas en France mais il a persisté à me recommander Holmes Place Bastille.
Même un humain très bête, au bout de TROIS fois il a compris quand même. Et... je sais même pas s'il aurait fini par comprendre. Sur la fin je disais des trucs "ok donne moi l'url".... "ok bah l'url que tu viens de me donner, en .fr, essaie la toi même tu vois qu'elle renvoie sur rien ?"...
Il a même pas eu l'intelligence de dire "ok bon ça fait CINQ fois que tu me dis ça et je sais que je suis pas fort dans cette tâche, peut-être que t'as raison mais je suis pas sûr".
Ce qui est fou ce sont les exploits et c'est super prometteur. Mais y'a quand même bcp bcp de fails.
Oui, c'est ce qu'on appelle la "spiky intelligence" : très performante dans certains domaines, pas du tout dans d'autre. Note qu'on utilise aussi ce terme... pour les autistes.
Nous ça nous paraît FOU qu'il comprenne pas que Holmes Place n'existe pas, mais les allistes ça leur paraît fou que ce soit difficile de détecter le second degré. Mais c'est pas un manque d'intelligence, juste une différence de fonctionnement.
De plus, tu te bases sur GPT4o, qui est quand même un modèle qui date du printemps dernier (c'est long dans une exponentielle). Les modèles de réflexion sont bien plus intelligents. Je suis quasi certain que o1 n'aurait pas fait ça (malheureusement il n'a pas accès au web).
Et d'ailleurs quand tu dis "tu prends des exploits", c'est faux, c'est justement ce qui est ouf avec o3 : il est meilleur que les humains avec un PhD, dans leur propre domaine. Mais genre dans TOUS les domaines. C'est plus du tout aussi étroit que les échecs, vraiment.
o3 ça se rapproche fort fort de l'AGI.
Ah non c'était sous o3 mini. Je me suis fait hyper par une vidéo donc j'ai essayé direct.
Pour le coup je pense que l'analogie avec l'autisme marche pas. Si tu m'expliques que c'est du second degré, j'intègre l'information. Après ça dépend de la définition de l'intelligence moi j'ai vraiment ce truc de "capacité à s'adapter". Là il faisait vraiment un truc qui est pour moi totalement bête : s'obstiner dans son erreur.
Et pour le truc des PhD, le truc c'est que là tu crois les démos sur parole. On a eu plein de fois ce genre d'annonces. J'attends de voir concrètement. Altman lui-même parfois il te dit ça arrive en 2025, parfois il change la définition et il dit mais non on est encore un peu loin.
Je dis pas que c'est pas vrai... mais j'attends de voir de mes propres yeux.
Ouais mais lis le dernier Pueyo : ya des PhD eux-mêmes qui disent que ça les hallucine. Ya pas que du benchmark.
Ok je suis d'accord que s'obstiner c'est bête. Mais c'est le défaut des LLM pour l'instant : les tokens de la conversation influencent beaucoup la suite. En avoir conscience est d'ailleurs hyper important pour bien les utiliser : des fois je redémarre une conversation car je veux être sûr de partir d'une base neutre.
Oui des PhD qui DISENT. Franchement j'attends de voir. Je dis pas que c'est faux mais on m'a trop menti en la matière.
Franchement moi il était bête. Attends je vais le réessayer pour voir.
Nan mais en fait je te crois : bien sûr qu'il va encore être bête sur quelques trucs. Mais quel humain ne l'est pas ?
Alors évidemment sa bêtise va nous paraître TRÈS bête. De la même manière qu'un chien qui n'a pas bien la permanence de l'objet va nous paraître bête. Et à côté de ça le même chien peut repérer un cancer des mois avant nous et il doit se dire "mais pourquoi ils ne sentent pas ?"
En fait comme les LLM s'expriment comme nous, on les juge avec les mêmes critères. Mais c'est juste UNE échelle.