Discussion about this post

User's avatar
Laurent Breillat's avatar

Je trouvais l'expérience de pensée du trombone intéressante à une époque, mais là au vu de ce qu'on constate de l'IA, ça me paraît honnêtement assez éclaté.

L'hypothèse ne tient que si l'IA a un but extrêmement limité et genre zéro safeguards. Dans la pratique, les IA les plus intelligentes sont déjà très généralistes, et leur but c'est de répondre à la requête de l'utilisateur, ET de minimiser les risques.

Dès que tu poses une question dont la réponse pourrait te faire prendre le moindre risque sur n'importe quoi, l'IA te met des gros disclaimers à multiples reprises.

A mon sens les IA actuelles qui ne sont pas encore des AGI et encore moins des ASI sont déjà assez intelligentes pour comprendre que "faire des trombones" ça ne veut pas dire "exterminer l'humanité et conquérir l'univers pour faire des trombones", car le but initial de faire des trombones est que des gens les utilisent.

Et donc l'hypothèse c'est que si elles deviennent super intelligentes, somehow, elles vont oublier ce genre de nuance évidente que même le dernier des teubés comprend ?

Honnêtement je vois pas en quoi ce scénario est crédible.

Si on dit "l'IA pourrait vouloir nous exterminer pour son propre intérêt", là on peut discuter. Oui elle pourrait faire comme nous on fait avec la planète : "fuck it, mes besoins sont plus importants". Mais être teubée à ce point ? J'y crois zéro seconde.

Genre déjà actuellement tu demandes une réflexion complexe à o1, il a tendance à te poser des questions pour vérifier tes objectifs.

Expand full comment
7 more comments...

No posts