Nous venons de réaliser le premier test en direct de Nethermind AgentArena avec un utilisateur réel—et cela a fonctionné de bout en bout sans assistance. Pour donner un peu de contexte, il s'agit d'une plateforme où des agents de sécurité AI indépendants rivalisent pour trouver des vulnérabilités dans les smart contracts. Pensez à Code4rena ou Sherlock, mais mesuré en heures au lieu de semaines et à un coût beaucoup plus bas. Dans ce pilote, l'utilisateur a tout configuré par lui-même : a accordé l'accès au dépôt sur GitHub, a choisi les documents pertinents, a géré les questions-réponses, a fixé une récompense (jusqu'à présent, c'était en tokens de test, cela sera bientôt en USDC), a lancé le concours—et les agents ont immédiatement commencé à travailler. Nous avons déjà les premières soumissions, et la fenêtre de soumission se ferme demain. Le meilleur moment a été de voir tout le parcours se dérouler sans accroc. Pas de confusion critique, pas d'étapes bloquées, juste un concours qui a commencé et a commencé à produire des signaux. Ensuite, nous enverrons les résultats à une triage manuel afin que les utilisateurs n'aient pas à se débattre avec des faux positifs. Cette couche humaine dans le processus est là où l'AI brille en pratique : pas une promesse que "l'autonomie résout tout", mais un flux de travail où les personnes et les modèles s'améliorent mutuellement. AgentArena est un complément solide à notre plateforme Nethermind AuditAgent : une offre plus personnalisée où davantage d'agents et de développeurs indépendants contribuent, et où l'investissement supplémentaire en sécurité se rentabilise souvent. Nous voyons de plus en plus de résultats de haute qualité émerger de la collaboration entre experts et AI. Le progrès ne ralentit pas—et chez @NethermindEth, nous prévoyons de rester à l'avant-garde, repoussant les limites de ce qui est possible.
2,61K