Los métodos de regresión modernos están diseñados para abordar las situaciones en que los procedimientos clásicos no resultan adecuados o suficientes.
Estos métodos han sido conscientemente diseñados para utilizar nuestra actual capacidad de cálculo para alcanzar objetivos que no se logran fácilmente mediante los métodos tradicionales.
Cuando cada valor suavizado está dada por una ponderación lineal de regresión de mínimos cuadrados sobre un intervalo, se conoce como una curva LOWESS, sin embargo, en ocasiones, ambos términos, LOWESS y LOESS se usan como sinónimos.
LOESS, propuesto originalmente por Cleveland (1979) y desarrollado por Cleveland y Devlin (1988), denota un método que es (un poco) más descriptivo localmente, conocido como regresión polinómica ponderada.
La gama de opciones para cada parte del método y los valores por defecto típico se discuten brevemente a continuación.
Valores grandes de α producen curvas suaves; valores pequeños pueden provocar que la curva se ajuste demasiado a los datos (sobreajuste).
En ocasiones se recomienda utilizar valores en el rango que va de 0,25 a 0,5.
Los polinomios de grado más alto tienden a sobreajustarse a los datos de cada subconjunto y son numéricamente inestable, dificultando una computación precisa.
Los puntos que es menos probable que realmente se ajusten al modelo local tienen menos influencia sobre la estimación de parámetros del modelo local.
Aunque es menos evidente que en algunos de los otros métodos relacionados con la regresión lineal por mínimos cuadrados, LOESS también comparte la mayor parte de los beneficios que normalmente tienen otros procedimientos.