Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
In questi giorni ho notato che la liquidità di primo livello è molto peggiore rispetto a prima.
Sia che si tratti di segmenti o di mercato interno, sembra tutto molto più difficile da gestire...
Tuttavia, il prezzo del codec rimane stabile a 30M, ho ancora una parte della mia posizione, e sono abbastanza tranquillo, principalmente perché recentemente il settore dei robot in web2 è davvero molto attivo. Qui ci sono alcune informazioni recenti che esprimono che il prossimo grande passo dopo l'AI sarà il Robot Meta.
• Recentemente, un ricercatore chiave di Hugging Face, Remi Cadene, sta trattando per raccogliere circa 40 milioni di dollari in un round di finanziamento seed per la sua startup di robotica "Uma" situata a Parigi.
• Questo tipo di aziende di sviluppo robotico è molto apprezzato dagli investitori; attualmente, nel 2025, il finanziamento globale nel settore della robotica ha superato i 16 miliardi di dollari, avvicinandosi ai 17,2 miliardi di dollari dell'anno scorso.
Rimango fiducioso su Codec, dopotutto il dev di Codec è un importante contributore open source di VLAs ed è sicuramente molto esperto nel settore dei robot in web3.
Ultimamente sono stato occupato a gestire questioni familiari, ma continuo a guadagnare un po' di asset ogni giorno e a raggiungere gradualmente l'ATH. Ho investito troppo poco in WLFI, ma in realtà non sono molto ansioso per questo, mantenendo una mentalità stabile, sono soddisfatto di guadagnare un po' ogni giorno.
A proposito, ho rapidamente creato un sito web per la statistica giornaliera degli asset, personalmente lo trovo molto utile. Ho messo il link di Github nei commenti, puoi scaricarlo direttamente sul computer e aprire index per usarlo.



22 ago, 18:03
I VLA sono ancora molto nuovi e molte persone trovano difficile comprendere la differenza tra VLA e LLM.
Ecco un'analisi approfondita su come questi sistemi AI differiscono in ragionamento, percezione e azione. Parte 1.
Analizziamo le principali distinzioni e come gli agenti AI avvolti attorno a un LLM differiscano dagli agenti operativi che utilizzano modelli VLA:
1. Percezione: Come percepiscono il mondo
Agente (LLM): Elabora testo o dati strutturati, ad esempio JSON, API e a volte immagini. È come un cervello che lavora con input puliti e astratti. Pensa a leggere un manuale o analizzare un foglio di calcolo. Ottimo per ambienti strutturati ma limitato da ciò che gli viene fornito.
Operatore (VLA): Vede pixel grezzi e in tempo reale dalle telecamere, oltre ai dati dei sensori (ad es., tatto, posizione) e alla propriocezione (consapevolezza del movimento). È come navigare nel mondo con occhi e sensi, prosperando in ambienti dinamici e disordinati come interfacce utente o spazi fisici.
2. Azione: Come interagiscono
Agente: Agisce chiamando funzioni, strumenti o API. Immaginalo come un manager che invia istruzioni precise come "prenota un volo tramite l'API di Expedia." È deliberato ma si basa su strumenti predefiniti e interfacce chiare.
Operatore: Esegue azioni continue e a basso livello, come muovere un cursore del mouse, digitare o controllare le articolazioni di un robot. È come un lavoratore esperto che manipola direttamente l'ambiente, ideale per compiti che richiedono precisione in tempo reale.
3. Controllo: Come prendono decisioni
Agente: Segue un ciclo lento e riflessivo: pianifica, chiama uno strumento, valuta il risultato, ripete. È vincolato ai token (limitato dall'elaborazione del testo) e vincolato alla rete (in attesa delle risposte API). Questo lo rende metodico ma lento per compiti in tempo reale.
Operatore: Opera, prendendo decisioni passo dopo passo in un ciclo di feedback stretto. Pensa a un videogiocatore che reagisce istantaneamente a ciò che appare sullo schermo. Questa velocità consente un'interazione fluida ma richiede un'elaborazione robusta in tempo reale.
4. Dati per apprendere: Cosa alimenta il loro addestramento
Agente: Addestrato su vasti corpora di testo, istruzioni, documentazione o set di dati RAG (Generazione Aumentata da Recupero). Impara da libri, codice o FAQ, eccellendo nel ragionamento su conoscenze strutturate.
Operatore: Impara da dimostrazioni (ad es., video di umani che eseguono compiti), registri di teleoperazione o segnali di ricompensa. È come imparare guardando e praticando, perfetto per compiti in cui le istruzioni esplicite sono scarse.
5. Modi di fallimento: Dove si rompono
Agente: Incline all'allucinazione (inventare risposte) o a piani a lungo termine fragili che si rompono se un passo fallisce. È come un stratega che riflette troppo o interpreta male la situazione.
Operatore: Affronta il cambiamento di covariate (quando i dati di addestramento non corrispondono alle condizioni del mondo reale) o errori composti nel controllo (piccoli errori che si accumulano). È come un guidatore che perde il controllo su una strada sconosciuta.
6. Infrastruttura: La tecnologia dietro di loro
Agente: Si basa su un prompt/router per decidere quali strumenti chiamare, un registro degli strumenti per le funzioni disponibili e memoria/RAG per il contesto. È un setup modulare, come un centro di comando che orchestra i compiti.
Operatore: Ha bisogno di pipeline di ingestione video, un server di azione per il controllo in tempo reale, uno scudo di sicurezza per prevenire azioni dannose e un buffer di riproduzione per memorizzare le esperienze. È un sistema ad alte prestazioni costruito per ambienti dinamici.
7. Dove brillano: I loro punti di forza
Agente: Domina nei flussi di lavoro con API pulite (ad es., automazione dei processi aziendali), ragionamento su documenti (ad es., riassumere rapporti) o generazione di codice. È il tuo punto di riferimento per compiti strutturati e di alto livello.
Operatore: Eccelle in ambienti disordinati, privi di API, come navigare in interfacce utente ingombranti, controllare robot o affrontare compiti simili a giochi. Se comporta interazione in tempo reale con sistemi imprevedibili, il VLA è il re.
8. Modello mentale: Pianificatore + Esecutore
Pensa all'Agente LLM come al pianificatore: scompone compiti complessi in obiettivi chiari e logici.
L'Operatore VLA è l'esecutore, che realizza quegli obiettivi interagendo direttamente con pixel o sistemi fisici. Un controllore (un altro sistema o agente) monitora i risultati per garantire il successo.
$CODEC

39,11K
Principali
Ranking
Preferiti