Uma questão que surge muito naturalmente deste cenário é: que tipos de decisões estamos dispostos adelegar a esses sistemas? Embora o ponto ainda esteja em debate, um trabalho recente do Instituto de Tecnologia da Georgia acrescentou uma nova camada de complexidade ao problema: que tipos de decisões sobre si mesmos estamos dispostos a permitir que esses sistemas tomem?
No caso específico, a equipe do Georgia Tech criou um algoritmo que permite a robôs decidirem quando mentir. Nesta página há um vídeo no qual um pequeno robô sobre rodas deliberadamente deixa uma trilha falsa para enganar outro robô que vem atrás.
O algoritmo é simples: ele autoriza a máquina a enganar se (1) ela estiver envolvida em um conflito e (2) existir a possibilidade de influenciar as ações do adversário.
Trata-se de uma prova de princípio, com tudo ainda muito primitivo, mas dá para vislumbrar a verdadeira selva filosófica que se descortina: por exemplo, um robô capaz de escolher por conta própria entre dizer a verdade e mentir pode ser considerado um agente moral?
(Alguém poderia argumentar que o robô não escolhe nada "por conta própria", já que está apenas obedecendo a algoritmos, mas o mesmo argumento pode ser feito em relação aos seres humanos -- com a diferença de que, ao menos até o momento, os nossos algoritmos, genéticos e psicológicos, são muito mais complexos.)
Em outro avanço, cientistas da Universidade da Califórnia em Berkeley estão anunciando a criação de uma pele artificial -- um material eletrônico capaz de registrar pequenas variações de pressão, efetivamente (mas ainda muito primitivamente) reproduzindo o sentido do tato.
Isso poderá permitir, entre outras coisas, a criação de robôs ou próteses capazes de "sentir" até que ponto é possível apertar um ovo sem quebrá-lo, e até que ponto é possível relaxar o toque sem derrubar o tal ovo no chão.