É obviamente possível derivar o que deve ser a partir do que é, mesmo que ainda não saibamos como isso é feito. O que deve ser são inferências sobre estados do mundo, e os estados do mundo são inferências a partir de observações. Os bebês nascem como bárbaros e aprendem primeiro objetos, depois sujeitos, e por fim, o que deve ser.
Mesmo que você pense que a moralidade está de alguma forma latentemente codificada em cada bebê geneticamente, então foi codificada lá pelos processos de aprendizagem da evolução biológica ou cultural. Seja uma crença genética ou uma memética, foi inferida, em última análise, a partir da observação.
Isto significa que a moralidade não é arbitrária, assim como a medicina não é. Certas crenças morais são mais verdadeiras do que outras, no sentido de que melhoram a sua precisão preditiva a longo prazo.
Isso também significa que a moralidade é relativa. As regras morais corretas a seguir dependem do ser em questão e do contexto em que se encontram. Mas, como não depende de forma arbitrária, há sempre alguma maneira de traduzir entre quadros morais.
Portanto, esta é uma teoria do realismo moral relativo, mais ou menos. Assim como a massa ou a passagem do tempo, a moralidade é muito real e muito relativa a um quadro de referência inercial (epistémico).
Um referencial inercial é simplesmente qualquer referencial onde a taxa de mudança das partes não muda a menos que seja afetado. Um referencial inercial epistémico é aquele onde a mudança nas suas crenças é um movimento causado pelo tempo, e a mudança na mudança das crenças é causada pela inferência.
(Exemplo, caso seja útil: posso acreditar que a mão do relógio continuou a mover-se com os meus olhos fechados, essa crença pode continuar a "girar" sozinha sem novas inferências a partir de dados ou outras crenças.)
Ok, então se a moralidade é uma crença (indiretamente) a partir da observação, e as crenças são relativas ao quadro de referência epistémico, que tipos de evidência são inferidos *de*, e sobre o que são essas crenças *a respeito*? Não tenho certeza, algumas coisas que noto que parecem importantes:
Os debates morais ocorrem em muitas escalas ao mesmo tempo. O interpessoal, comunitário, social e global são todos comuns, mas também existe uma moralidade, por exemplo, para os empregados. A moralidade está relacionada à pertença a grupos.
Os debates morais tendem a ocorrer ou dentro do contexto de um grupo, ou sobre quais quadros de grupo são válidos ou mais importantes. Dentro de um quadro, parecem estar relacionados com o florescimento do grupo. Entre quadros, parecem estar relacionados com a identidade.
Regras reflexivas como o imperativo categórico ou a regra de ouro têm a capacidade de ser universais de certa forma, ao dizer-lhe como inferir regras a partir de uma escolha de grupo. No entanto, não são muito úteis para ajudá-lo a escolher grupo(s).
A maioria dos experimentos de pensamento sobre dilemas morais funciona colocando duas molduras importantes em tensão uma com a outra, a fim de destacar a questão da prioridade entre elas. A resposta é sempre dependente do contexto, embora a prioridade relativa entre as molduras dependa de 1000 detalhes.
Não se esperaria que um experimento mental de física lhe dissesse muito se você removesse todas as informações sobre as posições relativas das partículas. Não se deve esperar que um experimento mental de ética lhe diga muito se você remover os grupos ou as identidades relativas aos grupos dos atores.
Existe tal coisa como progresso moral, assim como existe tal coisa como progresso na física. Podemos ter teorias relativamente melhores que preveem fenômenos em escalas relativamente mais altas/mais baixas. E também nunca chegamos à "Verdade", apenas a modelos melhores.
@mathbot10 Portanto, não podes ter um sistema anti-indutivo porque ele (deliberadamente) falhará na homeostase e, assim, mudará para um nível de energia incompatível com as suas energias de ligação estrutural, e morrerá.
@mathbot10 Também não podes ter um sistema com crenças (excessivamente) falsas sobre moralidade ou inferência pela mesma razão, ele vai morrer porque não está a modelar o mundo bem.
6,31K