En esta red, la información se mueve en una única dirección: adelante.
No hay ningún ciclo o bucle en estas redes.
Es por esto que puede ser considerada el tipo más sencillo de red prealimentada.
Una neurona similar ha sido descrita por Warren McCulloch y Walter Pitt en la década de 1940.
En 1969 en una monografía famosa titulada Perceptrons, Marvin Minsky y Seymour Papert mostraron que es imposible para un perceptrón de unidad única aprender una función XOR.
Este resultado puede ser encontrado en el artículo de Peter Auer, Harald Burgsteiner y Wolfgang Maass titulado "A learning rule for very simple universal approximators consisting of a single layer of perceptrons".
[1] Un red neuronal multicapa puede computar una salida continua en vez de una función escalonada.
Tiene una derivada continua, la cual le deja ser utilizada en propagación hacia atrás.
En este caso, uno diría que la red ha aprendido una función objetivo en específico.
Por esta razón, a propagación hacia atrás sólo puede ser aplicada en redes con funciones de activación diferenciables.