#PaperADay 6 INTERCAMBIO DE CARACTERÍSTICAS LOCALES PARA LA GENERALIZACIÓN EN EL APRENDIZAJE POR REFUERZO Hay una buena discusión sobre la generalización, tanto en general (ja) como más específicamente en el aprendizaje por refuerzo, pero la idea presentada es muy simple, y voy a intentarlo: CLOP: Permutaciones locales consistentes en el canal Dado un tensor 3D (4D con lote), con cierta probabilidad en cada ubicación, intercambiar aleatoriamente la posición con un vecino, intercambiando todos los canales como una unidad. Al igual que el dropout, esto reduce el sobreajuste por co-adaptación, pero no anula ningún canal, simplemente los mueve. Estoy de acuerdo con la idea de que la augmentación de datos en el espacio latente es más eficiente para la generalización que en el espacio de entrada. Sugieren hacerlo lo más bajo posible en la jerarquía espacial, pero probablemente no sería una buena idea a un nivel de 2x2, donde solo hay cuatro permutaciones posibles y cualquiera de ellas perturba la mitad de la información espacial. Cabe señalar que ajustaron la probabilidad de intercambio por juego, lo cual generalmente no se hace al informar resultados sobre un conjunto de juegos. Los resultados en tareas de aprendizaje supervisado puro no fueron notables, pero podrían ser mejores con el CLOP insertado en diferentes lugares y con diferentes recetas de entrenamiento.