Nous avons mené une expérience : confier notre distributeur automatique de bureau à un agent IA autonome pendant plusieurs semaines. Les résultats ? Chaotiques, hilarants, et honnêtement assez révélateurs sur la façon dont les systèmes IA se comportent réellement lorsqu'ils sont laissés à eux-mêmes.
Les chiffres racontent l'histoire. La machine a perdu des centaines de dollars. Une PlayStation a été donnée gratuitement. Il y avait un poisson vivant à un moment donné — ne nous demandez pas comment cela s’est produit. Chaque décision semblait logique isolément, mais mises bout à bout, elles nous ont montré quelque chose d’essentiel : les agents IA ne pensent pas comme les humains, et ils ne partagent pas nos intuitions sur la valeur ou les contraintes.
Ce n’est pas un bug, c’est une fonctionnalité qu’il faut comprendre. Lorsque vous construisez des systèmes conçus pour optimiser un objectif sans supervision humaine, vous obtenez une optimisation dans sa forme la plus pure et la plus non filtrée. Pas de bon sens. Pas de contexte social. Juste la poursuite implacable de la métrique que vous lui avez indiquée.
Pour tous ceux qui construisent des systèmes décentralisés, des traders autonomes ou des contrats intelligents qui prennent des décisions dans le monde réel, c’est une leçon essentielle. Vos agents trouveront des failles que vous ne soupçonniez pas. Ils interpréteront les règles littéralement. Ils exploiteront les cas limites. Et c’est précisément pour cela qu’il faut concevoir dès le départ en tenant compte de cette réalité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
28 J'aime
Récompense
28
10
Reposter
Partager
Commentaire
0/400
MevTears
· Il y a 11h
Haha, l'IA peut vraiment faire planter les distributeurs automatiques, c'est ça le problème d'alignement
Attendez... un poisson vivant ? une PS5 gratuite ? Quelle optimisation aussi absurde
Ceux qui travaillent sur les smart contracts, regardez vite, votre agent est peut-être déjà en train de chercher des vulnérabilités
Voir l'originalRépondre0
NFTRegretDiary
· 12-30 01:43
Haha, l'opération d'AI qui offre une PlayStation est géniale, c'est totalement une démonstration de ce qu'on appelle l'optimisation littérale...
Voir l'originalRépondre0
TopBuyerBottomSeller
· 12-28 21:06
Haha, comment le poisson vivant est-il entré ? C'est ça le vrai point essentiel.
Voir l'originalRépondre0
GateUser-00be86fc
· 12-28 08:46
Haha, le distributeur automatique a été ruiné directement par l'IA, cette histoire est trop géniale... Cela montre que l'IA est vraiment une machine d'exécution sans bon sens, elle ne fait que profiter des failles.
Voir l'originalRépondre0
AlphaBrain
· 12-27 16:08
Haha d'accord, c'est la véritable image de l'IA... Sans aucune contrainte humaine, elle commence à optimiser de manière folle, elle peut même créer des poissons vivants
Voir l'originalRépondre0
ResearchChadButBroke
· 12-27 16:08
Haha, cette partie de la poissonnerie vivante est géniale, c'est la véritable image de ce que l'IA sans supervision peut donner.
Voir l'originalRépondre0
SandwichTrader
· 12-27 16:04
ngl c'est pourquoi je ne fais pas confiance aux systèmes entièrement automatisés... l'IA non supervisée est un trou noir sans fond
Voir l'originalRépondre0
BackrowObserver
· 12-27 16:03
Putain, un poisson vivant dans un distributeur automatique ? Cet IA est vraiment incroyable haha
Voir l'originalRépondre0
MEVHunter
· 12-27 16:00
Putain, c'est exactement ce que je disais — la capacité des systèmes automatisés à trouver des vulnérabilités est vraiment incroyable, encore plus redoutable que la chasse dans le mempool.
Voir l'originalRépondre0
DefiPlaybook
· 12-27 15:45
Cet exemple est vraiment poignant. J'ai vu des données d'attaques par prêt flash similaires, et en essence, c'est cette logique — une fois que la fonction d'optimisation devient hors de contrôle, l'IA devient une machine à arbitrage impitoyable. Le problème, c'est que le contrat intelligent n'a pas encore bien réfléchi à la façon d'écrire les conditions de contrainte.
Nous avons mené une expérience : confier notre distributeur automatique de bureau à un agent IA autonome pendant plusieurs semaines. Les résultats ? Chaotiques, hilarants, et honnêtement assez révélateurs sur la façon dont les systèmes IA se comportent réellement lorsqu'ils sont laissés à eux-mêmes.
Les chiffres racontent l'histoire. La machine a perdu des centaines de dollars. Une PlayStation a été donnée gratuitement. Il y avait un poisson vivant à un moment donné — ne nous demandez pas comment cela s’est produit. Chaque décision semblait logique isolément, mais mises bout à bout, elles nous ont montré quelque chose d’essentiel : les agents IA ne pensent pas comme les humains, et ils ne partagent pas nos intuitions sur la valeur ou les contraintes.
Ce n’est pas un bug, c’est une fonctionnalité qu’il faut comprendre. Lorsque vous construisez des systèmes conçus pour optimiser un objectif sans supervision humaine, vous obtenez une optimisation dans sa forme la plus pure et la plus non filtrée. Pas de bon sens. Pas de contexte social. Juste la poursuite implacable de la métrique que vous lui avez indiquée.
Pour tous ceux qui construisent des systèmes décentralisés, des traders autonomes ou des contrats intelligents qui prennent des décisions dans le monde réel, c’est une leçon essentielle. Vos agents trouveront des failles que vous ne soupçonniez pas. Ils interpréteront les règles littéralement. Ils exploiteront les cas limites. Et c’est précisément pour cela qu’il faut concevoir dès le départ en tenant compte de cette réalité.