dit is altijd al verkeerd geweest - maar nu categorisch verkeerd in het tijdperk van RL op verifieerbare domeinen modellen zijn waarheidszoekend en interageren zelfs met een harde buitenwereld via het gebruik van tools
David Deutsch
David Deutsch4 aug, 16:23
LLM's zijn getraind om patronen van taal na te volgen, niet om waarheid te ontdekken of te verifiëren. Dus, wanneer ze gevraagd worden om te spreken als een expert in een gebied waar waargenomen experts een wijdverspreide misvatting hebben, zal de LLM die misvatting herhalen, waarbij hij het register en de woordenschat van experts overneemt.
658,27K