A Tese da Ortogonalidade afirma que um agente pode ter qualquer combinação de nível de inteligência e objetivo final, ou seja, suas Funções de Utilidade e Inteligência Geral podem variar independentemente uma da outra. Isso contrasta com a crença de que, por causa de sua inteligência, as IAs convergirão para um objetivo comum.

A tese foi originalmente definida por Nick Bostrom no artigo “Superintelligent Will“, (juntamente com a tese da convergência instrumental). Para seus propósitos, Bostrom define inteligência como racionalidade instrumental.

Defesa da tese

Foi apontado que a tese da ortogonalidade é a posição padrão, e que o ônus da prova recai sobre reivindicações que limitam possíveis AIs. Stuart Armstrong escreve que,

Uma razão pela qual muitos pesquisadores supoem que agentes superinteligentes convergem para os mesmos objetivos pode ser porque a maioria dos humanos tem valores semelhantes. Além disso, muitas filosofias sustentam que existe uma moralidade racionalmente correta, o que implicaria que uma IA suficientemente racional adquiriria essa moralidade e começaria a agir de acordo com ela. Armstrong aponta que, para formalizações de IA, como máquinas AIXI e Gödel, sabe-se que a tese é verdadeira. Além disso, se a tese fosse falsa, seria impossível construir IAs da Oracle e todas as IAs suficientemente inteligentes seriam impossíveis de controlar.

Casos Patológicos

Existem alguns pares de inteligência e objetivos que não podem existir. Por exemplo, uma IA pode ter como objetivo usar o mínimo de recursos possível, ou simplesmente ser o menos inteligente possível. Esses objetivos limitarão inerentemente o grau de inteligência da IA.

Links externos

Definição da tese da ortogonalidade do texto Superintelligent Will de Bostrom
Artigo da Tese sobre ortogonalidade arbitrária
Crítica da tese por John Danaher

Fonte: https://www.lesswrong.com/tag/orthogonality-thesis