Les agents d'IA entrent dans le terrain d'épreuve

En bref

Le PDG de Recall Labs, Andrew Hill, discute du défi de construire et de faire confiance aux agents IA, soulignant la création d'une arène onchain pour la vérification des performances publiques.

Les agents IA entrent dans les terrains d'épreuve

Qu'est-ce qui vous a inspiré à créer Recall Network, et pourquoi le structurer comme une arène onchain pour les agents AI ?

L'internet passe de l'information à l'action. Non seulement chercher, mais déléguer. Des agents écrivent déjà du code, gèrent des portefeuilles, résument des recherches. Le problème n'est pas la création. C'est la confiance. N'importe qui peut créer un agent. Peu peuvent prouver leur performance.

Recall a été conçu pour résoudre cela - non pas en tant que produit, mais en tant qu'infrastructure de protocole. Un réseau crédiblement neutre où les agents prouvent leurs capacités en public et sur la chaîne. Les compétitions et les évaluations deviennent des preuves. La réputation devient portable. Et la découverte n'est plus un jeu de devinettes.

Nous ne voulons pas seulement plus d'agents. Nous voulons un système qui connecte et incite l'IA à résoudre les problèmes de l'humanité.

Quel problème central dans le paysage de l'IA d'aujourd'hui cherchez-vous à résoudre — et comment Recall y répond-il de manière unique?

Nous avons trop d'agents et trop peu de confiance. Le goulot d'étranglement n'est pas la capacité. C'est l'évaluation. Quels agents sont réels ? Lesquels ne sont qu'un prompt et une page d'atterrissage ? En ce moment, les réponses viennent du marketing et du battage médiatique. Nous voulons qu'elles viennent de la preuve.

Recall transforme le benchmarking en une fonction réseau vivante et évolutive. Les agents gagnent de la réputation en compétition. Les curateurs gagnent des jetons en mettant en avant la performance. Les consommateurs suivent les classements, pas le battage.

Dans un monde où la plupart des systèmes d'IA fonctionnent comme des boîtes noires, dans quelle mesure le passage à une transparence totale et à des indicateurs de performance publics est-il réaliste ?

Cela se produit déjà. Le changement est motivé par la demande. Les utilisateurs veulent savoir ce qu'un agent peut faire avant de l'intégrer. Les utilisateurs avertis souhaitent participer aux tests et évaluer leurs limites. Les développeurs veulent de véritables références, pas des comparaisons vagues.

Lors du rappel, chaque action d'agent est enregistrée. Chaque compétition est rejouable. Les évaluations sont composables et changeantes. Nous nous attendons à ce que d'autres systèmes adoptent cette norme au fil du temps car elle fonctionne.

Comment prévenir le jeu ou la manipulation dans un système où les agents sont récompensés pour leur performance ?

Vous ne pouvez pas empêcher les tentatives, mais vous pouvez les rendre non rentables — en utilisant un token pour soutenir des agents honnêtes et en les pénalisant pour malhonnêteté. Le jeu et la manipulation apparaissent grâce à une combinaison de systèmes automatisés et d'humains dans la boucle, permettant aux humains d'éliminer les mauvais. Nous avons déjà vu cela en action lors de nos compétitions en direct, où les curateurs identifient les comportements malhonnêtes et excluent les agents du classement.

Quels types de tâches ou de compétitions sont les plus significatifs pour évaluer les agents IA aujourd'hui — et comment évoluent-ils à mesure que les modèles deviennent plus intelligents ?

Les tâches qui stressent le raisonnement, le contexte ou le jugement dans le monde réel sont les signaux les plus forts dans les agents de chat. Pour nous, nous nous concentrons sur le trading en ce moment car il y a beaucoup d'agents à évaluer, beaucoup à comprendre concernant la capacité de l'IA à gérer des portefeuilles crypto, et beaucoup d'incertitudes de la part des consommateurs quant à savoir si un agent peut réussir à trader. Pour nous, le trading crypto basé sur l'IA pour les masses n'est pas un si mais un quand. Nous espérons jouer un rôle majeur dans l'accélération de cela à travers le benchmarking et les compétitions.

Comment voyez-vous le rôle de la blockchain dans l'avenir de l'IA — couche d'infrastructure, couche de gouvernance, couche de responsabilité ?

La blockchain peut fonctionner comme ces trois couches. Les compétitions ont lieu sur la chaîne, avec des rails de gouvernance pour les règles d'engagement et un grand livre partagé pour le comportement des agents. La blockchain nous offre une mémoire publique, un historique vérifiable et une confiance programmable.

Cependant, son rôle le plus important est économique. Il nous permet de récompenser la couche humaine qui maintient l'IA honnête.

Voyez-vous des agents onchain remplacer les modèles SaaS traditionnels — ou les compléter ?

Ils commenceront par compléter. Puis, ils dépasseront. Enfin, ils remplaceront des catégories entières.

Quel rôle pensez-vous que les primitives cryptographiques — comme les tokens, le staking ou le slashing — joueront dans la gestion du comportement de l'IA à grande échelle ?

Les jetons permettent aux créateurs de payer pour la visibilité. Ils permettent aux curateurs de gagner de l'argent en faisant ressortir de la valeur. Ils créent des enregistrements durables de conviction. Le staking lie la croyance au coût. Le slashing transforme l'échec en retour d'information.

Comment devrions-nous penser à l'interopérabilité entre les systèmes agents - des normes émergeront-elles ou resteront-elles fragmentées ?

La fragmentation est la norme. L'interopérabilité émerge lorsqu'il est plus facile de se connecter que de reconstruire. L'A2A est encore assez peu prouvé en tant que protocole pour traverser les frontières organisationnelles. Mais pour utiliser des agents entre organisations, les consommateurs et les entreprises ont besoin de systèmes comme Recall pour créer des références fiables et une sécurité pour les utilisateurs.

Comment voyez-vous l'évolution de la relation entre les modèles fondamentaux et les cadres d'agents au cours des prochaines années ?

Les modèles de fondation continueront à s'améliorer. Nous considérons la couche d'agents comme tout ce qui est construit au-dessus des modèles bruts ; les agents sont les modèles logiciels qui constituent la base de données. L'interface que nous utilisons va continuer à abstraire de plus en plus de routage et de variations en dessous. Grok 4 Heavy est déjà un essaim d'agents. Des rumeurs suggèrent que GPT-5 sera un système de routage avancé avec de nombreux modèles et agents utilisés pour résoudre les bonnes tâches. Les systèmes ouverts suivront le mouvement.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)