Agencia moral

Sin embargo, esto no implica que podamos controlar los efectos de nuestras acciones.

En el ámbito del comportamiento humano, si una "causa" da como resultado un número indefinido de "efectos", esto no significa que la persona implicada haya tenido la voluntad libre e independiente para elegir dicho "efecto".

En caso contrario, sin la fuente fundamental "a priori" del agente libre, los conceptos socialmente esenciales que han sido creados por la mente humana, como puede ser la justicia, se verían socavados (la responsabilidad implica libertad de elección) y, por ello, la civilización y los valores humanos se desmoronarían.

Puede resultar útil comparar el concepto de agencia moral con la doctrina legal conocida como mens rea.

Por ejemplo, un niño pequeño que pega a sus amigos cuando está enfadado aunque tiene edad suficiente para distinguir el bien del mal.

Un ejemplo de ello sería un chico pequeño que no sabe distinguir el bien del mal.

Los agentes deben convertirse en expertos en este control para así poder definir algo como moral o inmoral, y de esta manera conservar su reputación.

Generalmente, los debates acerca de la agencia moral artificial se centran en unas determinadas ideas principales.

Finalmente, existe una tercera idea objeto de debate que se basa en si los robots deben ser construidos como agentes morales.

[9]​ Hasta el momento, no se ha conseguido diseñar un robot o una "máquina social" capaz de entender conceptos como la moralidad y el libre albedrío.

[13]​ Como se suele pensar que los agentes morales justifican una consideración ética especial, este tema en ocasiones se conecta con discusiones sobre los derechos de los animales, especialmente en torno a las prácticas que incluyen a seres no humanos.