Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Sono un po' sorpreso che nessuno abbia ancora creato un server MCP per Dwarf Fortress che possa consentire a un agente come Codex o Claude Code di controllare il gioco in modo efficiente e monitorare lo stato e i progressi.
Non l'ho mai giocato davvero, l'ho solo scaricato e l'ho controllato brevemente circa 10 anni fa, ma mi è piaciuto leggere a riguardo.
Sembra che sarebbe un ottimo test per un LLM vedere per quanto tempo potrebbe mantenere i nani vivi e prosperi.
Poiché ogni gioco alla fine porta a qualche catastrofe a cascata che causa la morte di tutti i nani, dovrebbe esserci un punto di arresto naturale, il che lo rende un buon candidato per un benchmark. Almeno questa è la mia comprensione (il motto dei giocatori è "Perdere è divertente").
Fare un buon lavoro con questo gioco dipenderebbe dall'accuratezza nella chiamata degli strumenti e dalla coerenza sostenuta nei compiti a lungo termine, oltre alla capacità di monitorare e comprendere le dinamiche di un sistema complesso e fare interventi tempestivi che anticipano e contrastano i problemi.
E poiché è nativo per terminale, potrebbe essere trasmesso e elaborato in modo efficiente utilizzando token regolari senza necessità di elaborazione di immagini multimodali, il che lo renderebbe molto più efficiente rispetto ad altri giochi.
Inoltre, sai che nessun laboratorio di intelligenza artificiale si è ancora addestrato per questo (ancora!), quindi è incontaminato da "benchmaxxing."

1,52K
Una cosa divertente da fare quando devi aspettare per qualche minuto è usare il tuo telefono per chiedere a Claude Opus la seguente domanda su qualche disciplina o campo a caso:
"Quale diresti sia L'intuizione fondamentale o il trucco analitico della cristallografia?"
Sostituisci cristallografia con qualsiasi cosa tu possa pensare. Finora, ho provato:
QED; il Modello Standard; Biochimica; Probabilità; Teoria evolutiva; e molti altri.
C'è qualcosa nel costringere il modello a fare l'impossibile, a condensare un vasto e complesso campo in "un trucco strano", che lo spinge davvero a cercare il miglior principio profondo e unificante nel campo e poi a articolare questo concetto in modo succinto.
Tende a essere qualcosa che è ovvio per i praticanti, ma molto probabilmente sconosciuto alla maggior parte delle persone con solo un interesse superficiale nell'argomento.
È interessante notare che puoi anche premere ripetutamente il pulsante "ripeti" con lo stesso prompt e a volte ottenere spiegazioni molto diverse, ma di solito molto affascinanti.
Ho già imparato MOLTO facendo questo, e potrebbe essere semplicemente il più alto "comprensione per minuto" che ho incontrato in qualsiasi apprendimento autodiretto.
Perché non sono solo fatti divertenti o curiosità interessanti. Sono, per costruzione, idee penetranti e unificanti che collegano una vasta quantità di teoria e fenomeni osservati nel mondo.
È sicuramente molto più ad alta capacità rispetto a guardare un altro video esplicativo su YouTube con animazioni e pubblicità per Brilliant/KiwiCo! Non che ci sia qualcosa di sbagliato in quelli.




5,23K
L'idea che ci sia stata una sorta di "esodo di talenti" da OpenAI recentemente, al punto che non siano più in grado di essere leader nel settore, è tanto fuorviante e sbagliata quanto l'idea che GPT-5 "sia stato un grande flop e che il modello non sia così eccezionale e sia molto incrementale."
Non solo GPT-5 Pro è il modello più intelligente al mondo ora, di gran lunga, nella maggior parte dei compiti reali più impegnativi (soprattutto nei compiti di programmazione, che hanno ora la maggiore importanza economica), ma il nuovo strumento codex cli di OpenAI è incredibilmente ben realizzato.
Sono passati da un lontano terzo posto negli strumenti cli di programmazione ad avere quello che è senza dubbio il migliore attualmente disponibile (nota che mi piace e uso ancora Claude Code, non è o l'uno o l'altro!), con di gran lunga le migliori prestazioni, la latenza più bassa, ecc. perché è programmato in rust.
E ora questo strumento cli è combinato con il miglior modello di programmazione che ha la migliore affidabilità nella chiamata degli strumenti e la migliore coerenza nei compiti lunghi, con il minor numero di allucinazioni.
E non c'è bisogno di dire che la loro app iOS è anche drammaticamente migliore di tutte le altre app AI in termini di rifinitura e funzionalità. L'app Claude è semplicemente l'app web in un sandbox di Safari! E la loro app web è ancora la migliore. Cose come la ricerca funzionano semplicemente meglio rispetto ad altre app. Fondamenta e basi.
Quindi, sì. Alcune persone molto intelligenti come Ilya e John Schulman sono andate a lavorare per altre aziende. Ma hanno ancora un team tecnico assolutamente fantastico con persone di prodotto incredibilmente valide e ottime capacità ingegneristiche.
Non lasciare che il tuo disprezzo per Altman ti accechi all'evidente. Ogni volta che vedo un'altra persona lamentarsi di quanto sia cattivo GPT-5, mi viene da rabbrividire, perché la persona sta dimostrando di non saper pensare con la propria testa basandosi su prove e ragione, ed è stata influenzata a pensare un'opinione (e a diffonderla online) perché pensa che la faccia sembrare intelligente.
33,73K
Quanto è fantastico che ciascuno di quei piccoli chip abbia 8 terabyte di spazio di archiviazione super veloce? E puoi collegarli entrambi a quell'involucro blu e ottenere 20 Gbps tramite USB 3.3 (non ho porte USB 4 e tutte le mie slot pci-e sono occupate da GPU)
Viviamo in un'epoca di tale abbondanza.

3,1K
Come aggiornamento ai miei due recenti thread sull'uso di GPT-5 Pro per avviare un processo di scoperta di teorie innovative che combinano applicazioni nuove di matematica avanzata nei casi d'uso dell'IA, ho fatto creare al modello implementazioni dimostrative in Python utilizzando Jax e Numpy per ciascuna delle 11 idee.
Poi le ho messe insieme in un progetto e ho aggiunto una bella interfaccia a riga di comando per eseguirle, e una serie di test end-to-end che misuravano se il codice fosse matematicamente corretto, controllando che il codice avesse le proprietà matematiche che desideriamo e, infine, se facesse qualcosa di utile rispetto agli approcci standard attuali.
Ho utilizzato codex CLI con GPT-5 per integrare tutto e correggere eventuali bug. Collegherò il repository, che contiene documentazione dettagliata per l'intero progetto e poi scritti per ciascuna delle 11 dimostrazioni che contengono tutto l'output generato dal modello durante il processo.
3,74K
Wow, finalmente ho trovato il tempo di provare la nuova versione della CLI di codex di OpenAI (la loro risposta a Claude Code).
L'ultima volta che ho provato a usare codex (nota che questo è diverso dal loro agente di codifica ospitato anch'esso chiamato codex, il che è estremamente confuso; sto parlando ora dello strumento che esegui localmente sul tuo computer nel terminale), era scritto come un'app Nodejs/Typescript, e in realtà faceva abbastanza schifo:
- potevo accedere solo a modelli più deboli come o4-mini o alla loro variante per codex, confusamente anch'essa chiamata codex (sul serio?)
- UI/UX molto peggiore rispetto a Claude Code
- molto peggiore nella codifica a causa di un modello peggiore, strumenti peggiori, flusso dell'agente peggiore.
- ti costringeva fastidiosamente a dare permesso per tutto, quindi dovevi sorvegliarlo tutto il tempo, rendendolo molto meno utile perché non potevi eseguire attivamente un sacco di essi in parallelo facilmente.
- forse era una cosa buona, però, perché di gran lunga il problema più grande era che faceva cose super avventate e distruttive; era molto più imprudente di CC.
Questo è fondamentalmente il motivo per cui ho smesso immediatamente di usarlo, dato che ha deciso di fare un "git reset --hard HEAD" senza prima fare uno stash, e ho perso del lavoro. Mai più, pensai.
Bene, finalmente ho trovato il tempo di provare la nuovissima versione in rust che utilizza GPT-5 e che può usare il tuo abbonamento GPT Pro esistente invece di una chiave API, e questo è così molto meglio che è scioccante.
Prima di tutto, non c'è semplicemente sostituto per il codice compilato veloce quando si tratta di strumenti interattivi come questo.
Il fatto che sia scritto in rust significa che non c'è alcun ritardo con l'input da tastiera, e anche nessun artefatto strano come hai in CC dove il backspace non funziona correttamente e l'input è traballante e lento perché è scritto in un linguaggio interpretato che è cento volte più lento per cose come questa.
Affrontare costantemente ritardi e traballamenti non è solo più lento, è mentalmente e forse anche emotivamente faticoso e logorante, almeno per me quando uso queste cose per ore e ore. È una sensazione orribile odiare e risentire i tuoi strumenti anche mentre dipendi da essi per fare il tuo lavoro.
Spero davvero che questo alzi il livello per tutti questi strumenti e convinca Anthropic e Google e altri a usare anche rust (o C++, Zig, qualunque cosa).
Ma il miglioramento davvero grande è ovviamente il modello; con un modello peggiore che è inaffidabile nel chiamare strumenti e che perde coerenza su compiti più lunghi, nessuna delle reattività di Rust varrebbe un accidente.
Ma se mi segui qui, allora saprai che sono rimasto in soggezione delle capacità di codifica e della maestria nel chiamare strumenti di GPT-5 Thinking da circa 15 minuti dopo la sua uscita, anche se l'ho usato principalmente dalla scheda agente di Cursor.
La conclusione è che questo nuovo codex in rust è improvvisamente diventato un concorrente davvero formidabile per CC, e dovresti assolutamente provarlo.
Dovrò vedere quanto utilizzo mi lasciano fare sul mio abbonamento GPT Pro da $200/mese, ma se devo prenderne un paio in più, ne varrà sicuramente la pena.
Nota che non ho smesso di usare CC. Mi piace usare entrambi insieme. E credici o no, uso ancora anche Cursor.
La gente dovrebbe smettere di cercare l'unico strumento che sostituisce tutti gli altri e abbracciare il fatto che strumenti diversi hanno punti di forza e debolezza diversi, e ottieni i migliori risultati imparando tutto ciò in modo intuitivo dall'uso costante.
Comunque, fai un favore a te stesso e prendilo ora. Il modo più semplice è eseguire questo comando (nota che questo ti darà la versione rust, nonostante sia confuso usare bun/npm per questo):
bun i -g @openai/codex
8,44K
Wow, finalmente ho trovato il tempo di provare la nuova versione della CLI di codex di OpenAI (la loro risposta a Claude Code).
L'ultima volta che ho provato a usare codex (nota che questo è diverso dal loro agente di codifica ospitato anch'esso chiamato codex, il che è estremamente confuso; sto parlando ora dello strumento che esegui localmente sul tuo computer nel terminale), era scritto come un'app Nodejs/Typescript, e in realtà faceva abbastanza schifo:
- poteva accedere solo a modelli più deboli come o4-mini o la loro variante per codex, confusamente anch'essa chiamata codex (sul serio?)
- UI/UX molto peggiore rispetto a Claude Code
- molto peggiore nella codifica a causa di un modello peggiore, strumenti peggiori, flusso dell'agente peggiore.
- ti costringeva fastidiosamente a dare permesso per tutto, quindi dovevi sorvegliarlo tutto il tempo, rendendolo molto meno utile perché non potevi eseguire attivamente un sacco di loro in parallelo facilmente.
- forse era una cosa buona, però, perché di gran lunga il problema più grande era che faceva cose super avventate e distruttive; era molto più imprudente di CC. Questo è fondamentalmente il motivo per cui ho smesso di usarlo immediatamente, dato che ha deciso di fare un "reset --hard HEAD" senza prima fare uno stash, e ho perso del lavoro. Mai più, pensai.
Bene, finalmente ho trovato il tempo di provare la nuovissima versione in rust che utilizza GPT-5 e che può usare il tuo abbonamento GPT Pro esistente invece di una chiave API, e questo è così molto meglio che è scioccante.
Prima di tutto, non c'è semplicemente sostituto per il codice compilato veloce quando si tratta di strumenti interattivi come questo.
Il fatto che sia scritto in rust significa che non c'è alcun ritardo con l'input da tastiera, e anche nessun artefatto strano come quello che hai in CC dove il backspace non funziona correttamente e l'input è scattoso e lento perché è scritto in un linguaggio interpretato che è cento volte più lento per cose come questa.
Affrontare costantemente ritardi e scatti non è solo più lento, è mentalmente e forse anche emotivamente faticoso e logorante, almeno per me quando uso queste cose per ore e ore. È una sensazione orribile odiare e risentire i tuoi strumenti anche mentre dipendi da essi per fare il tuo lavoro.
Spero davvero che questo alzi il livello per tutti questi strumenti e convinca Anthropic e Google e altri a usare anche rust (o C++, Zig, qualunque cosa).
Ma il miglioramento davvero grande è ovviamente il modello; con un modello peggiore che è inaffidabile nella chiamata degli strumenti e che perde coerenza su compiti più lunghi, nessuna delle reattività di Rust varrebbe un accidente.
Ma se mi segui qui, allora saprai che sono rimasto in soggezione delle capacità di codifica e della maestria nella chiamata degli strumenti di GPT-5 Thinking da circa 15 minuti dopo la sua uscita, anche se l'ho usato principalmente dalla scheda dell'agente di Cursor.
La conclusione è che questo nuovo codex in rust è improvvisamente diventato un concorrente davvero formidabile per CC, e dovresti assolutamente provarlo.
Dovrò vedere quanto utilizzo mi lasciano fare con il mio abbonamento GPT Pro da $200/mese, ma se devo prenderne un paio in più, ne varrà sicuramente la pena.
Nota che non ho smesso di usare CC. Mi piace usare entrambi insieme. E credici o no, uso ancora anche Cursor.
La gente dovrebbe smettere di cercare l'unico strumento che sostituisce tutti gli altri e abbracciare il fatto che strumenti diversi hanno punti di forza e debolezza diversi, e ottieni i migliori risultati imparando tutto ciò in modo intuitivo dall'uso costante.
Comunque, fai un favore a te stesso e prendilo ora. Il modo più semplice è eseguire questo comando (nota che questo ti darà la versione in rust, nonostante sia confuso usare bun/npm per questo):
bun i -g @openai/codex
554
Sono assolutamente convinto che i modelli di intelligenza artificiale più intelligenti attualmente disponibili, GPT-5 Pro e Grok4 Heavy, siano già abbastanza intelligenti e sicuramente sufficientemente informati su matematica e intelligenza artificiale per concepire e sviluppare importanti scoperte teoriche e pratiche, data la giusta forma di sollecitazione.
47,91K
Se hai visto i miei recenti post su come utilizzo Claude Code per la programmazione, saprai che ho sempre aperto il mio fidato editor di testo (Sublime Text) su un file di testo contenente utili frammenti di testo che utilizzo per sollecitare Claude Code e Cursor in vari modi per svolgere diversi compiti comuni, come continuare da una conversazione precedente che ho incollato qui sotto, o dirgli come risolvere un sacco di errori di battitura, ecc.
Questo approccio funziona, ma comporta un fastidioso uso del mouse e della tastiera ogni volta per trovare, selezionare e copiare il testo, e poi per cambiare finestra e incollare il frammento.
Recentemente ho comprato uno di quei gadget USB "Stream Deck" usati da giocatori e streamer per attivare varie azioni (160 dollari usati su eBay), e finalmente mi sono messo a configurarlo per questo caso d'uso dopo averlo lasciato inutilizzato sulla mia scrivania per alcune settimane.
Comunque, ora ho la seguente configurazione divertente mostrata qui sotto che mi consente di incollare istantaneamente un sacco dei miei "grandi successi" frammenti di testo. Penso che alla fine mi farà risparmiare un po' di tempo! Ogni pulsante nella fila inferiore è un frammento diverso (più quello nella seconda fila). Sospetto che alla fine riempirò il resto dei tasti con altri frammenti.
Gli altri pulsanti fanno cose come lanciare terminali WSL e sessioni SSH e mi permettono di spostare rapidamente le schede a sinistra e a destra nel Windows Terminal. Non sono sicuro di quanto saranno utili in pratica, dato che ci sono già scorciatoie da tastiera regolari per attivare quelle cose, ma vedremo.
Il dispositivo supporta il colore completo per i display dei tasti, ma lo trovo troppo visivamente distraente se non è tutto in bianco e nero e per lo più scuro. Comunque, se può farmi anche solo leggermente più veloce, varrà il costo e il tempo di configurazione. E per qualche motivo, mi sembra anche un po' divertente.



17,51K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari