#PaperADay 6 SCAMBIO DI CARATTERISTICHE LOCALI PER LA GENERALIZZAZIONE NELL'APPRENDIMENTO PER RAFFORZO C'è una buona discussione sulla generalizzazione, sia in generale (ah) che più specificamente nell'RL, ma l'idea presentata è molto semplice, e voglio provarci: CLOP: Permutazioni locali coerenti con il canale Data un tensore 3D (4D con batch), con una certa probabilità in ogni posizione, scambia casualmente la posizione con un vicino, scambiando tutti i canali come un'unità. Come il dropout, questo riduce l'overfitting attraverso la co-adattamento, ma non azzera alcun canale, semplicemente li sposta. Sono d'accordo con l'idea che l'augmentazione dei dati nello spazio latente sia più efficiente per la generalizzazione rispetto allo spazio di input. Suggeriscono di farlo il più in basso possibile nella gerarchia spaziale, ma probabilmente non sarebbe una buona idea a livello 2x2, dove ci sono solo quattro permutazioni possibili e qualsiasi di esse disturba metà delle informazioni spaziali. Nota che hanno sintonizzato la probabilità di scambio per partita, cosa che generalmente non viene fatta quando si riportano i risultati su una suite di giochi. I risultati sui compiti di apprendimento supervisionato puro non erano degni di nota, ma potrebbero essere migliori con il CLOP inserito in posti diversi e con ricette di addestramento diverse.