Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Créateur d’AuditAgent | AI x Crypto x Produit | Construire l’économie agentique
Nous venons de réaliser le premier test en direct de Nethermind AgentArena avec un utilisateur réel—et cela a fonctionné de bout en bout sans assistance. Pour donner un peu de contexte, il s'agit d'une plateforme où des agents de sécurité AI indépendants rivalisent pour trouver des vulnérabilités dans les smart contracts. Pensez à Code4rena ou Sherlock, mais mesuré en heures au lieu de semaines et à un coût beaucoup plus bas.
Dans ce pilote, l'utilisateur a tout configuré par lui-même : a accordé l'accès au dépôt sur GitHub, a choisi les documents pertinents, a géré les questions-réponses, a fixé une récompense (jusqu'à présent, c'était en tokens de test, cela sera bientôt en USDC), a lancé le concours—et les agents ont immédiatement commencé à travailler. Nous avons déjà les premières soumissions, et la fenêtre de soumission se ferme demain.
Le meilleur moment a été de voir tout le parcours se dérouler sans accroc. Pas de confusion critique, pas d'étapes bloquées, juste un concours qui a commencé et a commencé à produire des signaux. Ensuite, nous enverrons les résultats à une triage manuel afin que les utilisateurs n'aient pas à se débattre avec des faux positifs. Cette couche humaine dans le processus est là où l'AI brille en pratique : pas une promesse que "l'autonomie résout tout", mais un flux de travail où les personnes et les modèles s'améliorent mutuellement.
AgentArena est un complément solide à notre plateforme Nethermind AuditAgent : une offre plus personnalisée où davantage d'agents et de développeurs indépendants contribuent, et où l'investissement supplémentaire en sécurité se rentabilise souvent. Nous voyons de plus en plus de résultats de haute qualité émerger de la collaboration entre experts et AI. Le progrès ne ralentit pas—et chez @NethermindEth, nous prévoyons de rester à l'avant-garde, repoussant les limites de ce qui est possible.

2,52K
Kirill Balakhonov | Nethermind a reposté
Félicitations à l'équipe de @lukso_io pour le lancement de leur pont entre LUKSO et Ethereum !
L'AuditAgent de Nethermind a été utilisé pour soutenir les examens des contrats de jetons du pont, en plus des audits indépendants, afin d'augmenter et de renforcer la sécurité du pont.
3,52K
Évolution de l'apprentissage par quelques exemples pour les LLM modernes de raisonnement en utilisant @NethermindEth AuditAgent comme exemple.
Vous pouvez voir ci-dessous un graphique intéressant, ou plutôt une comparaison du nombre de vulnérabilités correctement identifiées par notre produit par rapport aux LLM prêts à l'emploi tels que @OpenAI GPT-5, @AnthropicAI Claude Opus 4.1, @Google Gemini 2.5 Pro, ou @xai Grok-4.
Bien sûr, la partie évidente de cette comparaison, que j'ai montrée de nombreuses fois auparavant et qui n'a rien de nouveau, est qu'un agent spécialisé surpassera presque toujours une solution polyvalente. Cette situation s'explique en fait assez facilement par le fait que toutes les solutions polyvalentes font partie de notre solution spécialisée, bien que la contribution beaucoup plus importante au résultat provienne d'une gestion appropriée du contexte ou de ce que @karpathy a récemment appelé "Ingénierie du Contexte."
En plus de cela, l'utilisation des bons outils et leur sélection - un modèle polyvalent aura toujours des problèmes car il existe des milliards d'outils et apprendre à les utiliser tous est une compétence distincte, tandis que nous enseignons explicitement à notre modèle spécialisé cela. Ensuite, il y a l'utilisation de bonnes bases de connaissances et de bons algorithmes de recherche pour celles-ci, et ainsi de suite. Donc, d'une manière ou d'une autre, nous faisons tout ce qui est possible, utilisons tous les outils possibles pour surpasser ces solutions polyvalentes.
Mais le détail intéressant auquel je voulais attirer l'attention est que si vous regardez l'image que j'ai postée il y a environ un an, les meilleures solutions prêtes à l'emploi étaient les modèles OpenAI ou Anthropic avec une étiquette "Apprentissage par Quelques Exemples", tandis que maintenant toutes les meilleures sont Vanilla. Et ce changement s'est produit progressivement avec l'émergence du raisonnement en tant que tel dans les modèles et avec l'amélioration de sa qualité. La conclusion que l'on peut tirer est que les exemples de solutions correctes prêtes à l'emploi que le modèle reçoit de notre part en tant qu'apprentissage contextuel, lorsque nous les montrons littéralement dans l'invite, cessent d'aider à résoudre la tâche, ou plus précisément, sans eux, le modèle capable de raisonner résout le problème même mieux. C'est-à-dire que nous limitons quelque peu ses capacités en lui montrant plusieurs exemples que nous avons sélectionnés.
De plus, un aspect intéressant est que les modèles avec accès à Internet et sélection automatique de cet outil commencent également à surpasser tout, ce qui signifie que le modèle peut aller sur Internet lui-même et formuler le bon contexte pour lui-même. Oui, bien sûr, il y a un risque que le modèle trouve la bonne réponse, mais naturellement, nous travaillons spécifiquement avec cela, nous faisons du blacklistage de sites, etc., donc nous essayons de ne pas avoir de telles fuites dans les données (un bon benchmarking est clé dans l'ensemble). Mais la tendance est intéressante - les modèles deviennent plus intelligents et prennent de plus en plus de composants de la solution eux-mêmes, ne nécessitant pas que les développeurs fassent explicitement certains réglages dans le contexte.
Quelle est votre expérience avec cela?

765
Meilleurs
Classement
Favoris