Els mínims quadrats no lineals són la forma d'anàlisi de mínims quadrats que s'utilitza per ajustar un conjunt de m observacions amb un model que és no lineal en n paràmetres desconeguts (m ≥ n). S'utilitza en algunes formes de regressió no lineal. La base del mètode és aproximar el model mitjançant un model lineal i refinar els paràmetres mitjançant iteracions successives. Hi ha moltes similituds amb els mínims quadrats lineals, però també algunes diferències significatives. En teoria econòmica, el mètode dels mínims quadrats no lineals s'aplica en (i) la regressió probit, (ii) la regressió llindar, (iii) la regressió suau, (iv) la regressió d'enllaç logístic, (v) els regressors transformats de Box-Cox (
).[1]
Teoria
Considereu un conjunt de
punts de dades,
i una corba (funció model)
que a més de la variable
també depèn de
paràmetres,
amb
Es vol trobar el vector
de paràmetres tals que la corba s'ajusti millor a les dades donades en el sentit dels mínims quadrats, és a dir, la suma dels quadrats[2]
es minimitza, on els residuals (errors de predicció dins la mostra) ri es donen per
per
El valor mínim de S es produeix quan el gradient és zero. Com que el model conté n paràmetres, hi ha n equacions de gradient:
En un sistema no lineal, les derivades
són funcions tant de la variable independent com dels paràmetres, de manera que en general aquestes equacions de gradient no tenen una solució tancada. En canvi, s'han de triar valors inicials per als paràmetres. A continuació, els paràmetres es refinen iterativament, és a dir, els valors s'obtenen per aproximació successiva,
Aquí, k és un nombre d'iteració i el vector d'increments,
es coneix com el vector de desplaçament. A cada iteració, el model es linealitza per aproximació a una expansió polinòmica de Taylor de primer ordre al voltant de 
La matriu jacobiana, J, és una funció de constants, la variable independent i els paràmetres, de manera que canvia d'una iteració a la següent. Així, en termes del model linealitzat,
i els residus vénen donats per 
Si substituïm aquestes expressions a les equacions de gradient, esdevenen
que, en reorganitzar-se, es converteixen n equacions lineals simultànies, les equacions normals
Les equacions normals s'escriuen en notació matricial com a
Aquestes equacions formen la base de l'algoritme de Gauss-Newton per a un problema de mínims quadrats no lineal.
Tingueu en compte la convenció de signes en la definició de la matriu jacobiana en termes de les derivades. Fórmules lineals en
pot aparèixer amb un factor de
en altres articles o en la literatura.
Interpretació geomètrica
En els mínims quadrats lineals, la funció objectiu, S, és una funció quadràtica dels paràmetres.
Quan només hi ha un paràmetre, el gràfic de S respecte a aquest paràmetre serà una paràbola. Amb dos o més paràmetres, els contorns de S respecte a qualsevol parell de paràmetres seran el·lipses concèntriques (suposant que la matriu de les equacions normals
és definit positiu ). Els valors mínims dels paràmetres es troben al centre de les el·lipses. La geometria de la funció objectiu general es pot descriure com a el·líptica paraboloide. En NLLSQ la funció objectiu és quadràtica respecte als paràmetres només en una regió propera al seu valor mínim, on la sèrie de Taylor truncada és una bona aproximació al model.
Com més difereixen els valors dels paràmetres dels seus valors òptims, més es desvien els contorns de la forma el·líptica. Una conseqüència d'això és que les estimacions inicials dels paràmetres han de ser el més properes possible als seus valors òptims (desconeguts!). També explica com es pot produir la divergència, ja que l'algoritme de Gauss-Newton només és convergent quan la funció objectiu és aproximadament quadràtica en els paràmetres.
Algoritmes
Mètode de Gauss-Newton[3]
Les equacions normals
es pot resoldre per a
per descomposició de Cholesky, tal com es descriu en mínims quadrats lineals. Els paràmetres s'actualitzen iterativament.
on k és un nombre d'iteració. Tot i que aquest mètode pot ser adequat per a models simples, fallarà si es produeix divergència. Per tant, la protecció contra la divergència és essencial.
Descomposició QR
El mínim en la suma de quadrats es pot trobar mitjançant un mètode que no implica la formació de les equacions normals. Els residuals amb el model linealitzat es poden escriure com
El Jacobià se sotmet a una descomposició ortogonal; la descomposició QR servirà per il·lustrar el procés.
on Q és ortogonal
matriu i R és una
matriu que es divideix en una
bloc,
, i un
bloc zero.
és triangular superior.
Descomposició de valors singulars
Una variant del mètode de descomposició ortogonal implica la descomposició de valors singulars, en què R es diagonalitza mitjançant transformacions ortogonals addicionals.
Mètodes de gradient
Hi ha molts exemples a la literatura científica on s'han utilitzat diferents mètodes per a problemes d'ajust de dades no lineals.
- Inclusió de segones derivades a l'expansió en sèrie de Taylor de la funció model. Aquest és el mètode de Newton en optimització.
La matriu H es coneix com a matriu hessiana. Tot i que aquest model té millors propietats de convergència prop del mínim, és molt pitjor quan els paràmetres són lluny dels seus valors òptims. El càlcul de la matriu hessiana augmenta la complexitat de l'algoritme. Aquest mètode no és d'ús general.
- Mètode de Davidon-Fletcher-Powell. Aquest mètode, una forma del mètode pseudo-Newton, és similar a l'anterior però calcula el hessià per aproximació successiva, per evitar haver d'utilitzar expressions analítiques per a les segones derivades.
- Descens més pronunciat. Tot i que es garanteix una reducció de la suma de quadrats quan el vector de desplaçament apunta en la direcció del descens més pronunciat, aquest mètode sovint té un rendiment deficient. Quan els valors dels paràmetres estan lluny de ser òptims, la direcció del vector de descens més pronunciat, que és normal (perpendicular) als contorns de la funció objectiu, és molt diferent de la direcció del vector de Gauss-Newton. Això fa que la divergència sigui molt més probable, sobretot perquè el mínim al llarg de la direcció del descens més pronunciat pot correspondre a una petita fracció de la longitud del vector de descens més pronunciat. Quan els contorns de la funció objectiu són molt excèntrics, a causa d'una alta correlació entre els paràmetres, les iteracions de descens més pronunciat, amb tall per desplaçament, segueixen una trajectòria lenta i en ziga-zaga cap al mínim.
- Cerca de gradient conjugat. Aquest és un mètode millorat basat en el descens més pronunciat amb bones propietats de convergència teòrica, tot i que pot fallar en ordinadors digitals de precisió finita fins i tot quan s'utilitza en problemes quadràtics.
Mètodes de cerca directa
Els mètodes de cerca directa depenen d'avaluacions de la funció objectiu en una varietat de valors de paràmetres i no utilitzen derivades en absolut. Ofereixen alternatives a l'ús de derivades numèriques en el mètode de Gauss-Newton i els mètodes de gradient.
- Cerca de variables alternants. Cada paràmetre es varia al seu torn afegint-hi un increment fix o variable i mantenint el valor que provoca una reducció de la suma de quadrats. El mètode és senzill i eficaç quan els paràmetres no estan altament correlacionats. Té propietats de convergència molt deficients, però pot ser útil per trobar estimacions inicials de paràmetres.
- Cerca de Nelder-Mead (símplex). Un símplex en aquest context és un polítop de n + 1 vèrtexs en n dimensions; un triangle en un pla, un tetraedre en un espai tridimensional, etc. Cada vèrtex correspon a un valor de la funció objectiu per a un conjunt particular de paràmetres. La forma i la mida del simplex s'ajusten variant els paràmetres de manera que el valor de la funció objectiu al vèrtex més alt sempre disminueixi. Tot i que la suma de quadrats pot disminuir inicialment ràpidament, pot convergir a un punt no estacionari en problemes quasiconvexos, amb un exemple de MJD Powell.
Podeu trobar descripcions més detallades d'aquests i altres mètodes a Receptes numèriques, juntament amb codi informàtic en diversos idiomes.[4]
Referències