Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Professor Jo 🐙
Basado en su carrera en finanzas de adquisiciones, es un 'agricultor de DeFi Joseon' que corre hacia un sueño más grande en DeFi. @0xundefined_
<Entrevista a Pudgy Penguins>
Pudgy Penguins (@pudgypenguins) se ha convertido en una de las IPs más queridas del mundo cripto, uniendo la cultura cripto con el mainstream a través de juguetes, memes y narración de historias.
Dirigido por el CEO @LucaNetz, el proyecto ahora se está expandiendo hacia ETFs, Layer 2s y licencias globales.
Esta noche a las 11 PM KST, nos unimos a Luca para hablar sobre el próximo Pudgy ETF, su nuevo L2 "Abstract" y cómo Pudgy está convirtiendo la ternura en capital.
👉

25.56K
<¿Por qué falló ZK y qué quiere cambiar Sucinct>
1. Conciencia del problema
El creador de Bitcoin, Satoshi Nakamoto, ha expresado su escepticismo sobre las pruebas de conocimiento cero (ZKP).
"Para demostrar que algo no existe, es necesario conocer toda la transacción", dijo, y juzgó que aplicar ZKP a las cadenas de bloques es estructuralmente difícil.
Sin embargo, también dijo: "Si encontramos una solución, será posible implementar Bitcoin mucho mejor, más fácil y más conveniente". En otras palabras, si bien reconocieron las limitaciones técnicas de ZK, reconocieron que si se abordaban, podrían ser un punto de inflexión importante en la evolución de blockchain.
Ahora, años después, la comunidad cypherpunk y los investigadores de ZK finalmente han encontrado una solución. Zcash fue el primero en aplicar ZKP a las criptomonedas del mundo real, y proyectos como StarkWare, zkSync y Scroll han desarrollado desde entonces esta tecnología como un medio clave para mejorar la escalabilidad y verificabilidad de Ethereum.
Sin embargo, todavía hay una brecha en la realidad. La creación de zkEVM requiere una gran experiencia, años de desarrollo y hardware de alto rendimiento, y la mayoría de los proyectos dependen de proveedores de pruebas específicos en lugar de operar su propia infraestructura ZKP. Como resultado, los ZKP siguieron siendo una herramienta compleja que solo unos pocos podían manejar en lugar de una "tecnología que cualquiera puede usar".
2. ¿Qué es Succinct?
Succinct (@SuccinctLabs) es un intento de abordar este problema de frente. La clave es convertir los ZKP en una infraestructura que pueda ser utilizada fácilmente por todos los desarrolladores y ayudar a cualquiera a crear un "sistema sin confianza" sin la necesidad de circuitos o infraestructura complejos.
Succinct es una infraestructura que transforma el ideal de un sistema "sin confianza" que blockchain ha estado persiguiendo en una realidad que realmente se puede realizar. Trustless no significa "no confiable", sino que se refiere a una estructura que opera por sí sola sin la premisa de confianza, es decir, un sistema que puede ser matemáticamente verificable sin necesidad de un tercero o autoridad central.
Sin embargo, el ecosistema actual de blockchain todavía depende en gran medida de la confianza. Los hackeos de puentes, las operaciones multifirma y la delegación centralizada de validadores son prueba de que el sistema funciona solo cuando todavía confiamos en las personas y las organizaciones.
Un intento de romper este límite basado en la confianza es ZKP, o tecnología de prueba de conocimiento cero. Esta tecnología, que nos permite demostrar matemáticamente que "este cálculo es correcto" sin tener que confiar en nadie, es claramente una base clave para los sistemas descentralizados. El problema era que los ZKP eran demasiado complejos y pesados para escribirlos.
3. ¿Por qué los ZKP se sintieron difíciles?
La tecnología ZKP ha sido tan alta como su potencial. En particular, la creación de zkEVM requirió un equipo profesional, años de desarrollo e infraestructura costosa. La mayoría de los proyectos zk tenían que diseñar sus propios circuitos, construir zkVM dedicados e incluso operar el hardware ellos mismos. Fue solo después de pasar por todos estos procesos que pudieron llamarse a sí mismos "ZK rollups".
Además, los zkVM tradicionales de propósito general han sido muy ineficientes en la generación de pruebas. Normalmente, probar un bloque requería un grupo de docenas de máquinas de alto rendimiento, y el costo alcanzaba los $ 10 ~ $ 20 por bloque. Debido a esta alta carga técnica y costos operativos, muchos proyectos han abandonado la introducción de ZKP u optado por estructuras que dependen de algunos proveedores de pruebas centralizados.
4. El intento de Succinct
@SuccinctLabs considera estos problemas estructurales como "problemas de infraestructura". Los ZKP son lo suficientemente poderosos técnicamente, pero el problema es quién los implementa, cómo y a qué costo. Es por eso que Succinct está creando una red de prueba descentralizada que es fácilmente accesible para todos, sin la necesidad de que los proyectos individuales operen su propia infraestructura de prueba.
Los desarrolladores no necesitan configurar zkVM complejas ni proporcionar hardware. Cuando se envía una solicitud de prueba a la red, los sondeadores con hardware diferente pujan por ella en forma de subasta para procesarla. Los costos de prueba se reducen naturalmente a través de la competencia, y los probadores generan pruebas de manera eficiente con equipos de alto rendimiento. El resultado son pruebas rápidas y baratas para los desarrolladores y una infraestructura de prueba altamente disponible y resistente a la censura para todo el ecosistema.
Succinct no solo está demostrando sus posibilidades técnicas, sino también demostrando su papel en áreas donde surge una demanda real. Un ejemplo típico es el flujo de 'CLOBs on Blobs' que surgió en el ecosistema @celestia. Con la aparición de libros de pedidos descentralizados (CLOB) de alto rendimiento además del espacio de blobs de Celestia, el procesamiento de datos a gran escala y las pruebas de estado rápidas son necesidades esenciales de infraestructura.
Proyectos como Hyperliquid y @hibachi_xyz están implementando transacciones complejas de libros de pedidos y lógica de descubrimiento de precios en cadena, lo que requiere escalabilidad y rendimiento más allá de simples rollups. Aquí es donde se requiere la capa de disponibilidad de datos de alto rendimiento de Celestia y la infraestructura de prueba ZK descentralizada proporcionada por Sucinct.
De hecho, Celestia está experimentando un rápido aumento en la tasa de uso real del espacio de blobs, con la infraestructura ZK como Succinct contribuyendo silenciosamente detrás de él. Si Celestia proporciona un "almacén de datos verificable", Succinct es responsable de crear una "transición de estado verificable" sobre esos datos. Esta combinación es el punto de partida para que la tecnología ZKP vaya más allá de las teorías abstractas a los sistemas del mundo real.
5. zkEVM, SP1 y SP1 Reth que pueden ser manejados por cualquier persona
Succinct, que resolvió la accesibilidad de la infraestructura de esta manera, desarrolló una zkVM de código abierto llamada SP1 (Succinct Processor 1) para reducir la barrera de entrada para las propias zkVM. SP1 es un zkVM de propósito general implementado en Rust, diseñado para ser utilizado directamente por cualquier persona sin la necesidad de un diseño de circuito complejo como los zkEVM tradicionales.
Un ejemplo temprano del potencial de SP1 es SP1 Reth. SP1 Reth es un zkEVM de tipo 1 implementado con solo unas 2,000 líneas de código Rust, y se construye fácilmente reutilizando componentes del ecosistema de clientes Ethereum existente (Reth, Revm, Alloy, etc.). Lo que es aún más sorprendente es su rendimiento. SP1 Reth tiene un costo de prueba promedio por transacción de Ethereum de solo $ 0.01 ~ 0.02, que es más bajo que los costos comunes de disponibilidad de datos en L2.
Este rendimiento es posible gracias al sistema de 'precompilación' de SP1. Las operaciones computacionalmente intensivas, como las funciones hash y la verificación de firmas, se manejan con una estructura preoptimizada, lo que reduce significativamente los recursos consumidos por las zkVM. Hasta ahora, la implementación de zkEVM con zkVM ha costado hasta $ 10 ~ 20 por bloque, pero SP1 Reth ha logrado reducir esto a un solo dígito.
Tanto SP1 como SP1 Reth son completamente de código abierto, y cualquiera puede bifurcarlos para crear su propio zkEVM o agregar precompilaciones para mejorar el rendimiento. Este es un cambio que anula por completo el entorno de desarrollo zk existente de alto costo y alta dificultad, y abre una era en la que cualquier desarrollador de Rust puede participar en el sistema zk.
6. Después de todo, ZK ahora está disponible para todos
Succinct no solo trata sobre el potencial técnico de la tecnología ZKP, sino también sobre la pieza final del rompecabezas: accesibilidad y practicidad. Sin circuitos complejos ni hardware dedicado, cualquiera puede crear aplicaciones utilizando ZKP, y la prueba es manejada por una red descentralizada.
Una era en la que todos los rollups pueden ser ZK rollups, y el Internet que funciona solo con la verdad. En ese punto de partida están Succinct y SP1. Ahora, los ZKP son la tecnología de todos, no de algunos.




9.08K
<Los datos son competitividad, no modelos>
El núcleo de la industria de la IA ya no es la computación o los modelos, sino los "datos de alta calidad". Así como la civilización humana avanzó al siguiente nivel a través del petróleo en el pasado, la IA también necesita un nuevo "combustible" para ir más allá. Al igual que antes y después de la Segunda Guerra Mundial, cuando el petróleo se utilizó como fuente de energía y material, la industrialización avanzó rápidamente. Ahora, quién y cómo obtienen y procesan los datos determinará la iniciativa en la era de la IA.
Elon Musk también dijo esto este año. "Hemos agotado toda la suma acumulada de conocimiento humano en el aprendizaje de inteligencia artificial". Es cierto que modelos como GPT han crecido rápidamente, raspando datos públicos como sitios web, libros, código e imágenes. Pero ahora, necesitamos una nueva forma de datos que tenga derechos de autor o que no exista en absoluto.
Por ejemplo, en campos como los vehículos autónomos y la robótica, es necesario ir más allá del simple texto y necesitar datos complejos basados en múltiples sensores que combinen cámaras, radares, lidar, etc., así como datos de casos recopilados en el entorno real, que no existen en la web.
El mayor problema no es tanto la tecnología como "cómo combinarla bien". Miles de personas necesitan recopilar, etiquetar y actualizar datos en todo el mundo, y es difícil manejar esta diversidad y escala con un enfoque centralizado del pasado. Por lo tanto, la industria de la IA está cada vez más de acuerdo en que el método descentralizado es la respuesta.
Aquí es donde aparece 'Poseidón (@psdnai)'. Poseidon no es solo un almacén de datos, sino una infraestructura que alimenta datos reales, los verifica y los refina en un conjunto de datos de entrenamiento que se puede usar sin preocuparse por los derechos de autor.
Para usar una analogía, Poseidón es una "refinería de petróleo". Toma datos sin procesar y los refina en combustible que la IA puede usar para aprender. Todo el proceso va y viene en el @StoryProtocol. Registra de forma transparente quién proporcionó los datos y quién los escribió en qué condiciones en la cadena. Aquellos que proporcionan datos son recompensados de manera justa y los desarrolladores de IA pueden usarlos con confianza.
Creo que Poseidon, que innovará en la capa de datos, no en las GPU o los modelos, puede ser el mejor ejemplo de aplicación de la tecnología Web3 a la industria Web2.


Chris Dixon23 jul 2025
Nos complace anunciar que estamos liderando una ronda inicial de $ 15 millones en Poseidon, que fue incubada por @StoryProtocol y está construyendo una capa de datos descentralizada para coordinar la oferta y la demanda de datos de entrenamiento de IA.
La primera generación de modelos básicos de IA se entrenó con datos que parecían ser un recurso efectivamente ilimitado. Hoy en día, los recursos más accesibles, como libros y sitios web, se han agotado en su mayoría, y los datos se han convertido en un factor limitante en el progreso de la IA.
Gran parte de los datos que quedan ahora son de menor calidad o están fuera de los límites debido a las protecciones de propiedad intelectual. Para algunas de las aplicaciones de IA más prometedoras, en robótica, vehículos autónomos e inteligencia espacial, los datos aún no existen. Ahora estos sistemas necesitan tipos de información completamente nuevos: multisensorial, ricos en casos extremos, capturados en la naturaleza. ¿De dónde vendrán todos estos datos del mundo físico?
El desafío no es solo técnico, es un problema de coordinación. Miles de colaboradores deben trabajar juntos de forma distribuida para obtener, etiquetar y mantener los datos físicos que necesita la IA de próxima generación. Creemos que ningún enfoque centralizado puede orquestar de manera eficiente la creación y curación de datos que se necesitan con el nivel requerido de escala y diversidad. Un enfoque descentralizado puede resolver esto.
@psdnai permite a los proveedores recopilar los datos que necesitan las empresas de IA, al tiempo que garantiza la seguridad de la propiedad intelectual a través de la licencia de propiedad intelectual programable de Story. Esto busca establecer una nueva base económica para Internet, donde los creadores de datos reciban una compensación justa por ayudar a las empresas de IA a impulsar la próxima generación de sistemas inteligentes.
El equipo de Poseidon, dirigido por el científico jefe y cofundador @SPChinchali, aporta una profunda experiencia en infraestructura de IA. Sandeep es profesor en UT Austin especializado en IA, robótica y sistemas distribuidos, con un doctorado de Stanford en IA y sistemas distribuidos. Jefe de Producto y Cofundador @sarickshah pasó una década como ingeniero de aprendizaje automático, escalando productos de IA para grandes empresas en servicios financieros, telecomunicaciones y atención médica.
Estamos entusiasmados de apoyar a Poseidon en su trabajo para resolver uno de los cuellos de botella más críticos en el desarrollo de IA.

2.88K
<¿Por qué Sonic vino a Corea?>
A principios de este año, @SonicLabs emocionó los corazones de DeFi Diegen. En la parte superior de la cadena rápidamente reorganizada, los nostálgicos productos DeFi han aparecido por primera vez en mucho tiempo. En ese momento, se dijo que se distribuirían alrededor de 200 millones de tokens $S en puntos, lo que representaba aproximadamente el 6% del suministro total en circulación, por lo que hubo una gran exageración.
Sin embargo, a medida que el interés global en las cadenas especializadas en DeFi ha disminuido, Sonic debe saber que no hay muchos usuarios en el extranjero que acepten este volumen.
Al final, creo que planeamos este evento basándonos en el juicio de que el único mercado que podía esperar una respuesta era 'Corea'. Sin embargo, ahora que los inversores coreanos también están educados, pronto se darán cuenta de que no es tan fácil como solía ser. Esto se debe a que la mayoría de las personas reunidas en el evento son agricultores de lanzamiento aéreo, y los participantes de Yaping son "deudas" desde el punto de vista del proyecto.
Después de todo, si no apuestas por productos reales con un espíritu DeFi como antes, creo que es difícil volver a llamar la atención. Personalmente, es triste ver a mi viejo Sonic favorito siendo expulsado del centro de atención como Vera.

seg.sonic17 jul 2025
Lanzamiento aéreo IRL @SonicLabs Corea 🔥🔥
1.59K
<Historia, ganando un nuevo impulso>
Una nueva figura se ha unido @StoryProtocol está remodelando la industria del contenido a través de la tokenización de IP.
Se trata de Sandeep Chincharly, profesor de UT Austin y experto en inteligencia artificial, robótica y sistemas distribuidos.
Sandeep Chin Charlie es un ex investigador de la NASA que estudió IA generativa y robótica en la nube en Stanford y actualmente es profesor en UT Austin, donde se ocupa de la conducción autónoma y los modelos de aprendizaje automático distribuido.
En el curso de su investigación, instaló una cámara de tablero directamente en el vehículo para recopilar datos de la vida real y analizó escenas raras llamadas 'colas largas'. Etiquetamos estos datos, entrenamos modelos de IA livianos directamente en hardware de TPU para el aprendizaje profundo y apreciamos profundamente la importancia de la calidad y la escasez de datos.
Luego dijo que se hizo una pregunta.
"Para que la IA funcione correctamente en la realidad, necesita datos de alta calidad, no solo modelos. Y para recopilar voluntariamente esos datos, se necesita una estructura de incentivos efectiva".
Y encontré la respuesta en Story.
@StoryProtocol define los datos como propiedad intelectual, no solo como recursos, y está construyendo un sistema de recompensas en cadena.
Recopilación de datos raros→ etiquetado→ síntesis → registro en cadena → distribución de regalías
Realice un seguimiento transparente de todo en la cadena. El profesor Sandeep lo explica de la siguiente manera:
"Registro una rara escena de conducción que tomé con una dashcam en Story, y mi amigo la etiqueta. Cuando la IA crea datos sintéticos basados en ellos, se genera una IP vinculada en el camino y las regalías se distribuyen automáticamente a todos los contribuyentes".
Como director de IA en Story, el profesor Sandeep Chinchaly liderará la estrategia general de IA, la infraestructura de datos de aprendizaje en cadena y el diseño de un sistema de recompensa de datos descentralizado. Y define el valor de los datos de esta manera.
"Los datos son la nueva IP".

Story17 jul 2025
Presentamos al nuevo director de IA de Story, @SPChinchali.
Sandeep es profesor en UT Austin y se enfoca en GenAI, robótica y sistemas distribuidos. Es un ex investigador de la NASA, uno de los primeros ingenieros de una startup adquirida por VMware, y tiene un doctorado de Stanford en IA y sistemas distribuidos.
Como director de IA, Sandeep liderará la estrategia de IA de Story, impulsando incubaciones clave y asesorando al ecosistema en general sobre cómo capturar la inmensa oportunidad de IA que se avecina.
El trabajo de Sandeep se ha centrado durante mucho tiempo en cómo los robots, los sensores y los modelos de ML pueden aprender del desordenado mundo físico. Ahora está aportando su experiencia a web3 e Story.
Esto se debe a que el próximo salto de la IA no se trata de más GPU. Se trata de desbloquear la categoría de propiedad intelectual más valiosa (y desatendida): los datos del mundo real.
El nombramiento de Sandeep es un paso importante para lograr la visión del Capítulo 2 de Story. La próxima semana, esta visión cobrará vida a lo grande.
Estén atentos.

9.63K
<Entrevista de RedStone>
RedStone es un proyecto modular de oráculo de blockchain que ofrece fuentes de datos seguras, rápidas y rentables para más de 1,250 activos en más de 70 cadenas.
Su arquitectura separa la recopilación de datos fuera de la cadena de la entrega dentro de la cadena, admitiendo mecanismos de extracción y empuje. Este diseño brinda a los desarrolladores la flexibilidad de optimizar entre los costos de gas y el rendimiento en tiempo real.
Esta noche a las 10 p.m. KST, nos acompañará el fundador de RedStone para conocer su visión y estrategias para los mercados de stablecoins y RWA de rápido crecimiento.
👉

5.67K
<¿Es real el contenido creado por la IA?>
@Mira_Network Verify es la infraestructura que responde a esta pregunta. En lugar de un modelo, evaluamos cada afirmación a través de tres modelos de verificación especializados y los clasificamos como "verdaderos", "falsos" o "sin consenso" en función de los resultados.
Si todos los modelos toman la misma decisión, se considera un resultado confiable, y si hacen juicios diferentes, genera señales sospechosas. No se trata solo de encontrar la respuesta correcta, sino de proporcionar la "incertidumbre" en sí misma como datos.
Verify no es solo una demostración, es una "infraestructura de confianza". Es un backend impulsado por API que permite a las empresas detectar la autenticidad del contenido de IA, filtrar automáticamente la información errónea y conectarlo a una posición revisable por humanos cuando sea necesario.

Mira16 jul 2025
Internet tiene un problema de verdad.
Así que creamos Mira Verify, que utiliza el consenso de varios modelos para identificar alucinaciones e información errónea.
Mira es la multi-firma de la verdad.
2.69K
<¿Qué sentiste mientras veías Sharplink Gaming>
Siento que Consensys ha tomado la delantera y la 'estrategia financiera de Ethereum' se ha convertido en una gran tendencia. Sharplink Gaming está aumentando constantemente Ethereum al recaudar alrededor de 500 mil millones de wones a través de PIPE, y la diferencia con la estrategia financiera de Bitcoin es que Ethereum puede obtener ganancias a través de la gestión de activos más allá de la simple tenencia.
Lo que me interesa aquí es cómo administrar el Ethereum acumulado de esta manera. Si observa @SharpLinkGaming ejemplo, puede ver que los activos se administran en función de LST o LRT a través de Figment.
Figment es uno de los principales validadores de Ethereum y opera una bóveda dedicada para inversores institucionales al tiempo que proporciona rendimientos de participación estables. Y proyectos como @Obol_Collective están ayudando a grandes operadores como Figment a hacer que la validación sea más confiable y eficiente.
A medida que más instituciones adopten la estrategia de Ethereum, creo que la oferta y la demanda de Ethereum inevitablemente se dirigirán a estos validadores exclusivos de la institución. En particular, la gestión de riesgos es la clave para las instituciones, por lo que operan los nodos de manera muy conservadora para minimizar riesgos como el tiempo de inactividad y el recorte.
Por ejemplo, si ocurre un desastre natural mientras ejecuta un nodo con una sola clave de validador, no solo se pueden perder las recompensas que recibirá en el futuro, sino también el capital de participación. Para reducir este riesgo, la demanda de DVT (Distributed Validator Technology) (DVT), que distribuye claves de validación en múltiples nodos, seguirá creciendo.
La diferencia de infraestructura decisiva entre Ethereum y Solana es su estructura informática descentralizada. Incluso si el mundo es destruido, está diseñado para evitar un único punto de falla a través de al menos 5 ~ 6 clientes. Para que las instituciones adopten adecuadamente esta narrativa de Ethereum, necesitan elaborar estrategias en la capa de validación para reducir los puntos únicos de falla, y hay proyectos como @Obol_Collective en el centro de la misma.
Al final, creo que cuantas más empresas elijan la estrategia financiera de Ethereum, más aumentará naturalmente la demanda de proyectos que les ayuden a realizar una mejor validación o facilitar la gestión de activos.


Lido6 jul 2025
DVV Máximo histórico + Aumento del límite
La bóveda de validadores descentralizada ha alcanzado un máximo histórico de 14.344 wstETH (~44 millones de dólares).
Añadiendo a esto, el límite de depósito se ha elevado a 20,000 wstETH, impulsando la adopción de DVT a través de Lido, Obol & SSV.
Límites más altos. Más descentralización.

7.92K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas