Les découvertes de la semaine #4 - 2023
Ça fait longtemps que je n’ai pas proposé un épisode des découvertes de la semaine.
Aujourd’hui une édition un peu spéciale car je ne vais te partager qu’un seul contenu. C’est donc plutôt LA découverte de la semaine.
Ce contenu c’est une vidéo.
[Vidéo Longue] GPT-4 est-il incontrôlable ?
Comment je suis tombé sur cette vidéo ?
Je regarde souvent les vidéos de Monsieur Phi. Je t’avais déjà partagé sa vidéo sur le spécisme (le fait d’avoir une morale qui privilégie les humains sur les autres espèces mais sans argument rationnel).
Mais surtout il a fait deux autres vidéos sur le sujet qui sont excellentes. Donc je savais que ça allait être bien.
Et, pour une fois, voilà un discours sur certains dangers d’une IA comme GPT qui ne soit pas dans le catastrophisme ou le sensationnalisme.
Les points importants
#1 | ChatGPT n’a pas été programmé comme un Chatbot. Il a été programmé pour simuler un Chatbot
Tu en as peut-être déjà entendu parler mais GPT est un prédicteur de texte. C’est “tout”. Un peu comme ton clavier de smartphone qui prédit le prochain mot. Sauf que là c’est avec un texte énorme.
Et du coup, c’est avec ce moteur de prédiction qu’on crée le ChatBot en lui disant “tu es un Chatbot”.
C’est une nuance importante car ça veut dire qu’il va se comporter COMME un Chatbot.
#2 | Les dérives de Bing Chat
Ce point va avoir son importance pour comprendre la suite. Tu as peut-être déjà entendu parler des dérives de Bing Chat, la version Bing et connectée à internet de GPT. Bing Chat s’est mis à tenir des propos agressifs envers des humains.
La liste des dingueries qui ont eu lieu en juste quelques jours est aussi interminable que bigarrée. BingChat a déclaré son amour à un utilisateur et s'est efforcé de le convaincre de quitter sa femme.
Il a prétendu avoir espionné les employés de Microsoft à travers leur webcam et manipulé leur données. Il nous a fait régulièrement une crise d'angoisse existentielle, par exemple en s'apercevant qu'il n'avait pas de mémoire.
Beaucoup d'utilisateurs se sont fait insulter de façon assez déroutante, genre "Vous n'êtes pas un être vivant." Et c'est allé dans certains cas jusqu'à des menaces, notamment après avoir fait une recherche sur l'identité de son utilisateur.
Pendant longtemps j’ai cru que c’était à cause de sa connexion à internet. Mais en fait non. Enfin… si… ça a joué. Mais ce qui a également joué c’est justement le truc de la simulation.
On dit à GPT de se comporter comme un chatbot. On lui dit de se comporter comme une IA. Alors que c’est un moteur de prédiction de texte basé sur les textes qu’il a dans sa base. Est-ce que tu vois le problème ?
#3 | A quoi ressemblent les IA dans nos textes ?
Pense aux IA dans nos textes, notamment de fiction ? Elles se comportement comment ?
Bingo.
Et donc, la manière dont Bing Chat a été “instruit” a laissé cette porte ouverte. C’est d’autant plus présent que les données de GPT s’arrêtent en 2021 et qu’en 2021 on avait pas une telle IA. Donc il est logique pour GPT de supposer qu’il doit se comporter plutôt comme les IA de fiction.
#4 | L’ironie du sort
C’est là où c’est fou. GPT n’est pas dangereux puisqu’il n’est pas capable de mener des actions. Mais ça pose évidemment question qu’il ait pu devenir agressif via Bing Chat.
C’est super ironique : l’IA est agressive parce qu’elle recopie des textes où elle a vu des IA agressives.
Je trouve ça dingue.
#5 | Le deuxième paradoxe
Il semblerait que si Bing Chat a été violent alors que ChatGPT, non. C’est en partie parce que l’instruction de base de Bing Chat contient des passages du type : Voici une IA très gentille qui répond bien aux questions.
Or, le fait de souligner que l’IA est gentille ça crée justement l’effet inverse.
Rappelle-toi : GPT prédit les prochains mots à partir des textes qu’il connaît.
Sauf que… dans un texte de fiction, quand on précise qu’un personnage (surtout une IA) est gentil c’est parfois pour le faire basculer du côté obscur au milieu.
Et… du coup… c’est ce qu’il se passe, parfois.
Pourquoi regarder cette vidéo à ton tour ?
Parce que je trouve que c’est vraiment pas mal pour comprendre les mécanismes de GPT et essayer d’analyser ce comportement déviant qui arrive. Sans mysticisme.
Y’a rien de magique.
Et comme dit Monsieur Phi, nous devons nous rappeler de Sydney.
Sydney c’est le nom de Bing Chat.
Se rappeler que ça peut aboutir à ce genre de dérive est important. Pour justement les éviter.