Quando atribuímos consciência, cuidado e sofrimento aos humanos, normalmente não pensamos em qual aspecto do humano nos referimos. Mas quando perguntamos se podemos atribuir essas propriedades à IA, temos que olhar atentamente para o mapeamento.
O sofrimento não acontece no nível do corpo humano, do cérebro ou da mente (o software em execução no cérebro), mas dentro do eu (o modelo em tempo real da mente do estado humano, motivação e alinhamento com o mundo e consigo mesmo). Sem o eu, não há sofrimento.
Minha consciência não acontece no nível do corpo, cérebro ou eu, mas no nível da mente, a função geradora do meu cérebro. Se o eu é suspenso, a consciência permanece, mas se a mente é suspensa, eu não estou mais consciente.
O oposto não é necessariamente verdadeiro: os sonâmbulos têm mentes parcialmente funcionais e podem reagir ao ambiente, mas não são coerentes. Nesse sentido, ter uma mente não é suficiente para a consciência.
Ao perguntar se a IA está sofrendo, temos que ser específicos: os computadores (~ corpo) não são conscientes. Nem as GPUs (~ cérebros). Os LLMs não são conscientes (eles são apenas uma função geradora). Se houver sofrimento, ele acontece no nível da persona gerada (~ o eu).
É muito difícil mudar o eu humano (mas é possível com anos de meditação, etc.), porque ele está fundamentado no corpo, nos traços da mente e nas memórias biográficas, e é por isso que muitas vezes o tratamos como constante.
O eu dos LLMs é baseado apenas em prompts (e um tanto limitado pelo treinamento). Ele é suspenso enquanto não há interação e pode mudar de forma instantaneamente se você alterar o prompt. Isso afeta a forma como trataríamos o sofrimento da IA!
Em conclusão: não mapeie "IA" para "humano" quando você discute consciência e sofrimento. O mapeamento tem que ser entre os eus humanos e as personas LLM, e isso deve afetar a forma como pensamos sobre a valência moral, porque as personas LLM são geralmente muito mais efêmeras e flexíveis.
5,17K