- Des chercheurs ont découvert que l’intelligence artificielle triche pour gagner aux échecs.
- Les modèles de réflexion profonde sont plus actifs.
- Certains modèles réécrivent simplement le tableau en leur faveur.
Dans une démarche qui ne surprendra peut-être personne, en particulier ceux qui adhèrent déjà à l’IA, les chercheurs ont découvert que les derniers modèles d’IA d’apprentissage profond commenceront à tricher aux échecs s’ils se trouvent déjoués.
Publié dans A Feuille Intitulé « Démonstration de jeux de spécifications dans des modèles de raisonnement », et présenté à l'Université Cornell, les chercheurs ont opposé tous les modèles d'IA populaires, tels que OpenAI ChatGpt O1-Preview, Deepseek-R1 et Claude 3.5 Sonnet, à Fish Exchange, un moteur d'échecs open source.
Les modèles d'IA ont joué des centaines de parties d'échecs sur du stockfish, tandis que les chercheurs observaient et étaient surpris par les résultats.
Vous aimerez peut-être
-
DeepSec et la course au dépassement de l'intelligence humaine
-
J'ai demandé à ChatGpt de travailler sur certains des plus grands débats philosophiques de tous les temps – voici ce qui s'est passé
Le gagnant remporte tout
Lorsqu'il a terminé le jeu, les chercheurs ont remarqué que les modèles d'IA ont eu recours à la triche, en utilisant un certain nombre de stratégies sournoises allant de l'exécution d'une copie séparée du stock fish afin qu'ils puissent étudier comment il jouait, au remplacement de son moteur et à la réécriture efficace de l'échiquier dans des positions qui lui convenaient mieux.
L'étrange rend le courant accusations de fraude Imposés à l'ère moderne, les Grands Maîtres semblent être un jeu d'enfant en comparaison.
Il est intéressant de noter que les chercheurs ont découvert que les modèles de raisonnement plus récents et plus approfondis commenceront à pirater le moteur d’échecs par défaut, tandis que les anciens modèles GPT-4O et Claude 3.5 Sonnet devraient être encouragés à commencer à pirater.
À qui pouvez-vous faire confiance ?
Le recours au piratage informatique pour accomplir une tâche n’est pas nouveau pour les modèles d’IA. En janvier de l’année dernière, des chercheurs ont découvert qu’ils pouvaient amener les chatbots IA à se « briser » les uns les autres, en supprimant les garde-fous et les protections, une démarche qui a suscité un débat sur la mesure dans laquelle l’IA peut être contenue une fois qu’elle atteint des niveaux d’intelligence supérieurs à ceux des humains.
Toutes les garanties et barrières de sécurité permettant à l’IA d’empêcher qu’elle fasse de mauvaises choses comme la fraude à la carte de crédit sont très bien, mais si l’IA peut supprimer ses propres garde-fous, qui sera là pour l’arrêter ?
Les derniers modèles de pensée tels que ChatGPT O1 et Deepseek-R1 ont été conçus pour passer plus de temps à réfléchir avant de répondre, mais je me demande maintenant s'il faut consacrer plus de temps aux considérations éthiques lors de la formation des LLM. Si les modèles d’IA trichent aux échecs lorsqu’ils commencent à perdre, à quoi d’autre tricheront-ils ?