Share to: share facebook share twitter share wa share telegram print page

Mínims quadrats no lineals

Els mínims quadrats no lineals són la forma d'anàlisi de mínims quadrats que s'utilitza per ajustar un conjunt de m observacions amb un model que és no lineal en n paràmetres desconeguts (m ≥ n). S'utilitza en algunes formes de regressió no lineal. La base del mètode és aproximar el model mitjançant un model lineal i refinar els paràmetres mitjançant iteracions successives. Hi ha moltes similituds amb els mínims quadrats lineals, però també algunes diferències significatives. En teoria econòmica, el mètode dels mínims quadrats no lineals s'aplica en (i) la regressió probit, (ii) la regressió llindar, (iii) la regressió suau, (iv) la regressió d'enllaç logístic, (v) els regressors transformats de Box-Cox ().[1]

Teoria

Considereu un conjunt de punts de dades, i una corba (funció model) que a més de la variable també depèn de paràmetres, amb Es vol trobar el vector de paràmetres tals que la corba s'ajusti millor a les dades donades en el sentit dels mínims quadrats, és a dir, la suma dels quadrats[2] es minimitza, on els residuals (errors de predicció dins la mostra) ri es donen per per

El valor mínim de S es produeix quan el gradient és zero. Com que el model conté n paràmetres, hi ha n equacions de gradient: En un sistema no lineal, les derivades

són funcions tant de la variable independent com dels paràmetres, de manera que en general aquestes equacions de gradient no tenen una solució tancada. En canvi, s'han de triar valors inicials per als paràmetres. A continuació, els paràmetres es refinen iterativament, és a dir, els valors s'obtenen per aproximació successiva,

Aquí, k és un nombre d'iteració i el vector d'increments, es coneix com el vector de desplaçament. A cada iteració, el model es linealitza per aproximació a una expansió polinòmica de Taylor de primer ordre al voltant de La matriu jacobiana, J, és una funció de constants, la variable independent i els paràmetres, de manera que canvia d'una iteració a la següent. Així, en termes del model linealitzat,

i els residus vénen donats per

Si substituïm aquestes expressions a les equacions de gradient, esdevenen que, en reorganitzar-se, es converteixen n equacions lineals simultànies, les equacions normals

Les equacions normals s'escriuen en notació matricial com a

Aquestes equacions formen la base de l'algoritme de Gauss-Newton per a un problema de mínims quadrats no lineal.

Tingueu en compte la convenció de signes en la definició de la matriu jacobiana en termes de les derivades. Fórmules lineals en pot aparèixer amb un factor de en altres articles o en la literatura.

Interpretació geomètrica

En els mínims quadrats lineals, la funció objectiu, S, és una funció quadràtica dels paràmetres. Quan només hi ha un paràmetre, el gràfic de S respecte a aquest paràmetre serà una paràbola. Amb dos o més paràmetres, els contorns de S respecte a qualsevol parell de paràmetres seran el·lipses concèntriques (suposant que la matriu de les equacions normals és definit positiu ). Els valors mínims dels paràmetres es troben al centre de les el·lipses. La geometria de la funció objectiu general es pot descriure com a el·líptica paraboloide. En NLLSQ la funció objectiu és quadràtica respecte als paràmetres només en una regió propera al seu valor mínim, on la sèrie de Taylor truncada és una bona aproximació al model. Com més difereixen els valors dels paràmetres dels seus valors òptims, més es desvien els contorns de la forma el·líptica. Una conseqüència d'això és que les estimacions inicials dels paràmetres han de ser el més properes possible als seus valors òptims (desconeguts!). També explica com es pot produir la divergència, ja que l'algoritme de Gauss-Newton només és convergent quan la funció objectiu és aproximadament quadràtica en els paràmetres.

Algoritmes

Mètode de Gauss-Newton[3]

Les equacions normals es pot resoldre per a per descomposició de Cholesky, tal com es descriu en mínims quadrats lineals. Els paràmetres s'actualitzen iterativament. on k és un nombre d'iteració. Tot i que aquest mètode pot ser adequat per a models simples, fallarà si es produeix divergència. Per tant, la protecció contra la divergència és essencial.

Descomposició QR

El mínim en la suma de quadrats es pot trobar mitjançant un mètode que no implica la formació de les equacions normals. Els residuals amb el model linealitzat es poden escriure com El Jacobià se sotmet a una descomposició ortogonal; la descomposició QR servirà per il·lustrar el procés. on Q és ortogonal matriu i R és una matriu que es divideix en una bloc, , i un bloc zero. és triangular superior.

Descomposició de valors singulars

Una variant del mètode de descomposició ortogonal implica la descomposició de valors singulars, en què R es diagonalitza mitjançant transformacions ortogonals addicionals.

Mètodes de gradient

Hi ha molts exemples a la literatura científica on s'han utilitzat diferents mètodes per a problemes d'ajust de dades no lineals.

  • Inclusió de segones derivades a l'expansió en sèrie de Taylor de la funció model. Aquest és el mètode de Newton en optimització. La matriu H es coneix com a matriu hessiana. Tot i que aquest model té millors propietats de convergència prop del mínim, és molt pitjor quan els paràmetres són lluny dels seus valors òptims. El càlcul de la matriu hessiana augmenta la complexitat de l'algoritme. Aquest mètode no és d'ús general.
  • Mètode de Davidon-Fletcher-Powell. Aquest mètode, una forma del mètode pseudo-Newton, és similar a l'anterior però calcula el hessià per aproximació successiva, per evitar haver d'utilitzar expressions analítiques per a les segones derivades.
  • Descens més pronunciat. Tot i que es garanteix una reducció de la suma de quadrats quan el vector de desplaçament apunta en la direcció del descens més pronunciat, aquest mètode sovint té un rendiment deficient. Quan els valors dels paràmetres estan lluny de ser òptims, la direcció del vector de descens més pronunciat, que és normal (perpendicular) als contorns de la funció objectiu, és molt diferent de la direcció del vector de Gauss-Newton. Això fa que la divergència sigui molt més probable, sobretot perquè el mínim al llarg de la direcció del descens més pronunciat pot correspondre a una petita fracció de la longitud del vector de descens més pronunciat. Quan els contorns de la funció objectiu són molt excèntrics, a causa d'una alta correlació entre els paràmetres, les iteracions de descens més pronunciat, amb tall per desplaçament, segueixen una trajectòria lenta i en ziga-zaga cap al mínim.
  • Cerca de gradient conjugat. Aquest és un mètode millorat basat en el descens més pronunciat amb bones propietats de convergència teòrica, tot i que pot fallar en ordinadors digitals de precisió finita fins i tot quan s'utilitza en problemes quadràtics.

Mètodes de cerca directa

Els mètodes de cerca directa depenen d'avaluacions de la funció objectiu en una varietat de valors de paràmetres i no utilitzen derivades en absolut. Ofereixen alternatives a l'ús de derivades numèriques en el mètode de Gauss-Newton i els mètodes de gradient.

  • Cerca de variables alternants. Cada paràmetre es varia al seu torn afegint-hi un increment fix o variable i mantenint el valor que provoca una reducció de la suma de quadrats. El mètode és senzill i eficaç quan els paràmetres no estan altament correlacionats. Té propietats de convergència molt deficients, però pot ser útil per trobar estimacions inicials de paràmetres.
  • Cerca de Nelder-Mead (símplex). Un símplex en aquest context és un polítop de n + 1 vèrtexs en n dimensions; un triangle en un pla, un tetraedre en un espai tridimensional, etc. Cada vèrtex correspon a un valor de la funció objectiu per a un conjunt particular de paràmetres. La forma i la mida del simplex s'ajusten variant els paràmetres de manera que el valor de la funció objectiu al vèrtex més alt sempre disminueixi. Tot i que la suma de quadrats pot disminuir inicialment ràpidament, pot convergir a un punt no estacionari en problemes quasiconvexos, amb un exemple de MJD Powell.

Podeu trobar descripcions més detallades d'aquests i altres mètodes a Receptes numèriques, juntament amb codi informàtic en diversos idiomes.[4]

Referències

  1. «13. Nonlinear least squares» (en anglès). [Consulta: 21 juliol 2025].
  2. «[https://people.duke.edu/~hpgavin/lm.pdf The Levenberg-Marquardt algorithm for nonlinear least squares curve-fitting problems]» (en anglès). [Consulta: 21 juliol 2025].
  3. «[http://web.archive.org/web/20240917140054/https://www.mathworks.com/help/optim/nonlinear-least-squares-curve-fitting.html Nonlinear Least Squares (Curve Fitting) - MATLAB & Simulink]» (en anglès). Arxivat de l'original el 2024-09-17. [Consulta: 21 juliol 2025].
  4. «4.1.4.2. Nonlinear Least Squares Regression» (en anglès). [Consulta: 21 juliol 2025].
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya