sangat didukung. Model kami belajar sampah dan saya pikir itu bukan hanya pajak kinerja tetap – itu menambahkan kedangkalan, hafalan yang tidak diinginkan dan "singularitas runcing" yang mungkin meningkat seiring dengan skala. Saya bertanya-tanya bagaimana metode sparsity yang berbeda berkontribusi pada masalah ini.
Kenneth Stanley
Kenneth Stanley23 jam lalu
Mereka yang mengintuisi sesuatu yang kurang dalam LLM berjuang untuk menentukan kesenjangan di luar metafora yang tidak memadai seperti "burung beo stokastik" atau "pelengkapan otomatis yang dimuliakan." Apa yang Anda cari adalah retak representasi terjerat (FER). Itulah inti konkret dari intuisi licin Anda. Itulah sebabnya model-model ini dapat terus meningkat dengan cara yang dramatis dan benar-benar tidak sepele namun masih menderita penyakit yang mendasarinya. Di sinilah letak peluang dan harapan nyata untuk kemajuan revolusioner, Representasi adalah inti dari pemikiran, kreativitas, dan memang kecerdasan itu sendiri. Adalah mungkin untuk "mengetahui" jumlah yang tak terduga namun masih merepresentasikannya dengan buruk. Dan representasi mungkin menjadi lebih baik. Dan itu pada akhirnya akan terjadi dengan satu atau lain cara.
3,33K