Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Nhà nghiên cứu AI @meta Phòng thí nghiệm siêu trí tuệ, quá khứ: OpenAI, Google 🧠
Jason Wei đã đăng lại
📣 Rất vui mừng được chia sẻ nghiên cứu thực tế của chúng tôi về một phi công phụ lâm sàng LLM, một sự hợp tác giữa @OpenAI và @PendaHealth.
Trong 39.849 lần thăm khám bệnh nhân trực tiếp, các bác sĩ lâm sàng có AI đã giảm tương đối 16% lỗi chẩn đoán và giảm 13% lỗi điều trị so với những người không có. 🧵
405,52K
Jason Wei đã đăng lại
Đây là bài giảng của tôi từ 2 tháng trước tại @Cornell
"Làm cách nào để tăng sản lượng của tôi?" Một câu trả lời tự nhiên là "Tôi sẽ làm việc thêm vài giờ nữa." Làm việc lâu hơn có thể hữu ích, nhưng cuối cùng bạn đã đạt đến giới hạn thể chất.
Một câu hỏi tốt hơn là, "Làm thế nào để tăng sản lượng của tôi mà không tăng đầu vào nhiều?" Đó là đòn bẩy.
Chúng ta nghe "đòn bẩy" thường xuyên đến nỗi hàm ý của nó rất dễ bị bỏ qua. Phân loại đòn bẩy yêu thích của cá nhân tôi là của Naval Ravikant: lao động con người, vốn và mã / phương tiện. Mỗi người đã thúc đẩy làn sóng tạo ra sự giàu có lớn trong lịch sử.
Tuy nhiên, một khi một nguồn đòn bẩy trở nên phổ biến (hãy nghĩ đến các kênh YouTube ngày nay so với mười năm trước), sự cạnh tranh sẽ nén lợi nhuận. Vì vậy, khi một đòn bẩy mới xuất hiện, đó là cơ hội hiếm hoi để đạt được lợi nhuận quá lớn.
Trong bài nói chuyện này, tôi mô tả AI là đòn bẩy mới nổi. Tác nhân AI kết hợp đòn bẩy lao động (nó hoạt động cho bạn và không cần sự cho phép) với đòn bẩy mã (bạn có thể sao chép và dán nó).
Thật sáo rỗng khi nói rằng AI sẽ tạo ra sự giàu có khổng lồ. Nhưng sử dụng lăng kính đòn bẩy này cho phép chúng tôi giải thích chu kỳ tin tức AI ồn ào một cách nhất quán và phát hiện ra các cơ hội thực sự.
Cảm ơn @unsojo đã đón tiếp tôi!
402,58K
Bài viết blog mới về sự bất đối xứng của việc xác minh và "luật của người xác minh":
Sự bất đối xứng của việc xác minh – ý tưởng rằng một số nhiệm vụ dễ xác minh hơn là giải quyết – đang trở thành một ý tưởng quan trọng khi chúng ta có RL cuối cùng hoạt động một cách tổng quát.
Những ví dụ tuyệt vời về sự bất đối xứng của việc xác minh là những thứ như câu đố sudoku, viết mã cho một trang web như instagram, và các vấn đề BrowseComp (mất khoảng 100 trang web để tìm câu trả lời, nhưng dễ xác minh khi bạn có câu trả lời).
Các nhiệm vụ khác có sự gần như đối xứng của việc xác minh, như cộng hai số 900 chữ số hoặc một số kịch bản xử lý dữ liệu. Tuy nhiên, một số nhiệm vụ dễ đề xuất các giải pháp khả thi hơn là xác minh chúng (ví dụ, kiểm tra sự thật của một bài luận dài hoặc nêu một chế độ ăn mới như "chỉ ăn thịt bò bison").
Một điều quan trọng cần hiểu về sự bất đối xứng của việc xác minh là bạn có thể cải thiện sự bất đối xứng bằng cách làm một số công việc trước. Ví dụ, nếu bạn có đáp án cho một bài toán toán học hoặc nếu bạn có các trường hợp kiểm tra cho một bài toán Leetcode. Điều này làm tăng đáng kể tập hợp các vấn đề có sự bất đối xứng xác minh mong muốn.
"Luật của người xác minh" tuyên bố rằng độ dễ dàng trong việc đào tạo AI để giải quyết một nhiệm vụ tỷ lệ thuận với mức độ có thể xác minh của nhiệm vụ đó. Tất cả các nhiệm vụ có thể giải quyết và dễ xác minh sẽ được AI giải quyết. Khả năng đào tạo AI để giải quyết một nhiệm vụ tỷ lệ thuận với việc nhiệm vụ đó có các thuộc tính sau:
1. Sự thật khách quan: mọi người đều đồng ý về những gì là giải pháp tốt
2. Dễ xác minh: bất kỳ giải pháp nào cũng có thể được xác minh trong vài giây
3. Có thể mở rộng để xác minh: nhiều giải pháp có thể được xác minh đồng thời
4. Ít tiếng ồn: việc xác minh có tương quan chặt chẽ với chất lượng giải pháp càng nhiều càng tốt
5. Phần thưởng liên tục: dễ dàng xếp hạng độ tốt của nhiều giải pháp cho một vấn đề duy nhất
Một ví dụ rõ ràng về luật của người xác minh là thực tế rằng hầu hết các tiêu chuẩn được đề xuất trong AI đều dễ xác minh và cho đến nay đã được giải quyết. Lưu ý rằng gần như tất cả các tiêu chuẩn phổ biến trong mười năm qua đều phù hợp với tiêu chí #1-4; các tiêu chuẩn không đáp ứng tiêu chí #1-4 sẽ gặp khó khăn để trở nên phổ biến.
Tại sao khả năng xác minh lại quan trọng đến vậy? Số lượng học tập trong AI xảy ra được tối đa hóa khi các tiêu chí trên được thỏa mãn; bạn có thể thực hiện rất nhiều bước gradient mà mỗi bước có nhiều tín hiệu. Tốc độ lặp lại là rất quan trọng – đó là lý do mà tiến bộ trong thế giới kỹ thuật số nhanh hơn rất nhiều so với tiến bộ trong thế giới vật lý.
AlphaEvolve từ Google là một trong những ví dụ vĩ đại nhất về việc tận dụng sự bất đối xứng của việc xác minh. Nó tập trung vào các thiết lập phù hợp với tất cả các tiêu chí trên, và đã dẫn đến một số tiến bộ trong toán học và các lĩnh vực khác. Khác với những gì chúng ta đã làm trong AI trong hai thập kỷ qua, đây là một mô hình mới ở chỗ tất cả các vấn đề đều được tối ưu hóa trong một môi trường mà tập huấn luyện tương đương với tập kiểm tra.
Sự bất đối xứng của việc xác minh có mặt ở khắp mọi nơi và thật thú vị khi tưởng tượng về một thế giới trí tuệ gồ ghề nơi bất cứ điều gì chúng ta có thể đo lường sẽ được giải quyết.

299,23K
bài hát hay quá, tôi đã đọc ngay lập tức

Kevin Lu10 thg 7, 2025
Why you should stop working on RL research and instead work on product //
The technology that unlocked the big scaling shift in AI is the internet, not transformers
I think it's well known that data is the most important thing in AI, and also that researchers choose not to work on it anyway. ... What does it mean to work on data (in a scalable way)?
The internet provided a rich source of abundant data, that was diverse, provided a natural curriculum, represented the competencies people actually care about, and was an economically viable technology to deploy at scale -- it became the perfect complement to next-token prediction and was the primordial soup for AI to take off.
Without transformers, any number of approaches could have taken off, we could probably have CNNs or state space models at the level of GPT-4.5. But there hasn't been a dramatic improvement in base models since GPT-4. Reasoning models are great in narrow domains, but not as huge of a leap as GPT-4 was in March 2023 (over 2 years ago...)
We have something great with reinforcement learning, but my deep fear is that we will repeat the mistakes of the past (2015-2020 era RL) and do RL research that doesn't matter.
In the way the internet was the dual of supervised pretraining, what will be the dual of RL that will lead to a massive advancement like GPT-1 -> GPT-4? I think it looks like research-product co-design.

18,95K
Lời khuyên hẹn hò của người bình thường: Đừng kết hôn sớm nếu bạn đang lớn lên và thay đổi rất nhiều hàng năm
AI buddy (@YiTayML): Bạn giống như một mạng lưới thần kinh giữa quá trình rèn luyện và mất mát vẫn đang được cải thiện. Tốt hơn là nên đào tạo để hội tụ thay vì chụp nhanh điểm kiểm soát sớm
186,15K
Chúng ta vẫn chưa có AI tự cải thiện, và khi có, nó sẽ là một bước ngoặt lớn. Với nhiều sự khôn ngoan hơn so với thời kỳ GPT-4, rõ ràng rằng nó sẽ không phải là một "cuộc cất cánh nhanh chóng", mà sẽ diễn ra cực kỳ dần dần trong nhiều năm, có thể là một thập kỷ.
Điều đầu tiên cần biết là tự cải thiện, tức là các mô hình tự đào tạo, không phải là một quá trình nhị phân. Hãy xem xét kịch bản GPT-5 đào tạo GPT-6, điều này sẽ thật tuyệt vời. Liệu GPT-5 có đột nhiên từ không thể đào tạo GPT-6 chút nào đến việc đào tạo nó một cách cực kỳ thành thạo không? Chắc chắn là không. Những lần chạy đào tạo GPT-6 đầu tiên có thể sẽ cực kỳ không hiệu quả về thời gian và tính toán so với các nhà nghiên cứu con người. Và chỉ sau nhiều lần thử nghiệm, GPT-5 mới thực sự có thể đào tạo GPT-6 tốt hơn con người.
Thứ hai, ngay cả khi một mô hình có thể tự đào tạo, nó cũng sẽ không đột nhiên trở nên tốt hơn ở tất cả các lĩnh vực. Có một độ dốc về độ khó trong việc cải thiện bản thân ở các lĩnh vực khác nhau. Ví dụ, có thể tự cải thiện chỉ hoạt động ở những lĩnh vực mà chúng ta đã biết cách dễ dàng khắc phục sau đào tạo, như ảo giác cơ bản hoặc phong cách. Tiếp theo sẽ là toán học và lập trình, điều này cần nhiều công sức hơn nhưng đã có các phương pháp thiết lập để cải thiện các mô hình. Và sau đó, ở mức độ cực đoan, bạn có thể tưởng tượng rằng có một số nhiệm vụ rất khó cho việc tự cải thiện. Ví dụ, khả năng nói Tlingit, một ngôn ngữ bản địa của người Mỹ được khoảng 500 người nói. Sẽ rất khó cho mô hình tự cải thiện trong việc nói Tlingit vì chúng ta chưa có cách giải quyết các ngôn ngữ tài nguyên thấp như thế này ngoại trừ việc thu thập thêm dữ liệu, điều này sẽ mất thời gian. Vì vậy, do độ dốc về độ khó của việc tự cải thiện, nó sẽ không xảy ra tất cả cùng một lúc.
Cuối cùng, có thể điều này gây tranh cãi nhưng cuối cùng, tiến bộ trong khoa học bị kìm hãm bởi các thí nghiệm thực tế. Một số người có thể tin rằng việc đọc tất cả các tài liệu sinh học sẽ cho chúng ta phương pháp chữa trị ung thư, hoặc rằng việc đọc tất cả các tài liệu ML và thành thạo tất cả toán học sẽ cho phép bạn đào tạo GPT-10 một cách hoàn hảo. Nếu điều này đúng, thì những người đọc nhiều tài liệu nhất và nghiên cứu nhiều lý thuyết nhất sẽ là những nhà nghiên cứu AI giỏi nhất. Nhưng điều thực sự xảy ra là AI (và nhiều lĩnh vực khác) đã bị chi phối bởi các nhà nghiên cứu thực nghiệm không khoan nhượng, điều này phản ánh mức độ tiến bộ dựa trên các thí nghiệm thực tế hơn là trí thông minh thô. Vì vậy, ý của tôi là, mặc dù một tác nhân siêu thông minh có thể thiết kế các thí nghiệm tốt hơn gấp 2 hoặc thậm chí 5 lần so với các nhà nghiên cứu con người giỏi nhất của chúng ta, nhưng vào cuối ngày, họ vẫn phải chờ các thí nghiệm diễn ra, điều này sẽ là một sự tăng tốc nhưng không phải là một cuộc cất cánh nhanh chóng.
Tóm lại, có nhiều nút thắt cho sự tiến bộ, không chỉ là trí thông minh thô hoặc một hệ thống tự cải thiện. AI sẽ giải quyết nhiều lĩnh vực nhưng mỗi lĩnh vực có tốc độ tiến bộ riêng của nó. Và ngay cả trí thông minh cao nhất cũng sẽ vẫn cần các thí nghiệm trong thế giới thực. Vì vậy, sẽ là một sự tăng tốc và không phải là một cuộc cất cánh nhanh chóng, cảm ơn bạn đã đọc những suy nghĩ của tôi.
340,26K
Điều đáng giá nhất khi làm việc trong văn phòng vào ban đêm và cuối tuần không phải là công việc thực sự bạn hoàn thành, mà là những cuộc trò chuyện tự phát với những người khác cũng luôn làm việc. Họ là những người có xu hướng làm những điều lớn lao và sẽ trở thành những người bạn thành công nhất của bạn.
74,86K
Tôi sẽ nói rằng chúng ta chắc chắn đã đạt đến AGI khi AI có thể tạo ra một con kỳ lân sống thực sự. Và không, tôi không có ý nói đến một công ty trị giá 1 tỷ đô la đâu, các bạn nerd, tôi đang nói đến một con ngựa hồng với một cái sừng xoắn. Một hình mẫu của sự tiến bộ khoa học trong kỹ thuật di truyền và lập trình tế bào. Những điều trong giấc mơ thời thơ ấu. Liệu tôi có thể nói rằng điều này sẽ xảy ra trong cuộc đời của chúng ta không?
84,63K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất