Նվազագույն քառակուսիների մեթոդի էությունն այն է. Որտե՞ղ է կիրառվում նվազագույն քառակուսիների մեթոդը: Նվազագույն քառակուսիների մեթոդով խնդիրների լուծման օրինակներ

Այն ունի բազմաթիվ կիրառություններ, քանի որ թույլ է տալիս տրված ֆունկցիայի մոտավոր ներկայացում այլ ավելի պարզ գործառույթներով։ LSM-ը կարող է չափազանց օգտակար լինել դիտարկումների մշակման համար, և այն ակտիվորեն օգտագործվում է որոշ քանակություններ գնահատելու համար՝ պատահական սխալներ պարունակող մյուսների չափումների արդյունքներից: Այս հոդվածում դուք կսովորեք, թե ինչպես իրականացնել նվազագույն քառակուսիների հաշվարկները Excel-ում:

Խնդրի շարադրանք կոնկրետ օրինակով

Ենթադրենք, որ կան երկու ցուցիչներ X և Y: Ավելին, Y-ը կախված է X-ից: Քանի որ OLS-ը մեզ հետաքրքրում է ռեգրեսիոն վերլուծության տեսանկյունից (Excel-ում դրա մեթոդներն իրականացվում են ներկառուցված գործառույթների միջոցով), մենք պետք է անմիջապես շարունակենք: դիտարկել կոնկրետ խնդիր.

Այսպիսով, թող X լինի մթերային խանութի վաճառքի տարածքը՝ չափված քառակուսի մետրով, իսկ Y՝ տարեկան շրջանառությունը՝ սահմանված միլիոնավոր ռուբլով:

Պահանջվում է կանխատեսում անել, թե ինչ շրջանառություն (Y) կունենա խանութը, եթե այն ունի այս կամ այն ​​մանրածախ տարածք: Ակնհայտ է, որ Y = f (X) ֆունկցիան աճում է, քանի որ հիպերմարկետում ավելի շատ ապրանքներ են վաճառվում, քան կրպակը:

Մի քանի խոսք կանխատեսման համար օգտագործվող սկզբնական տվյալների ճիշտության մասին

Ենթադրենք, մենք ունենք n խանութի տվյալների հետ կառուցված աղյուսակ:

Ըստ մաթեմատիկական վիճակագրության՝ արդյունքները քիչ թե շատ ճիշտ կլինեն, եթե հետազոտվեն առնվազն 5-6 օբյեկտների տվյալները։ Բացի այդ, «անոմալ» արդյունքները չեն կարող օգտագործվել: Մասնավորապես, էլիտար փոքր բուտիկը կարող է ունենալ մի քանի անգամ ավելի մեծ շրջանառություն, քան «masmarket» դասի խոշոր կետերի շրջանառությունը։

Մեթոդի էությունը

Աղյուսակի տվյալները կարող են ցուցադրվել դեկարտյան հարթության վրա որպես M 1 (x 1, y 1), ... M n (x n, y n) կետեր: Այժմ խնդրի լուծումը կնվազեցվի y = f (x) մոտավոր ֆունկցիայի ընտրությամբ, որն ունի M 1, M 2, .. M n կետերին հնարավորինս մոտ անցնող գրաֆիկ:

Իհարկե, դուք կարող եք օգտագործել բարձր աստիճանի բազմանդամ, բայց այս տարբերակը ոչ միայն դժվար է իրականացնել, այլ պարզապես սխալ է, քանի որ այն չի արտացոլի հիմնական միտումը, որը պետք է հայտնաբերել: Ամենախելամիտ լուծումը y = ax + b ուղիղ գիծ փնտրելն է, որը լավագույնս մոտավոր է փորձարարական տվյալներին, իսկ ավելի ճիշտ՝ a և b գործակիցներին։

Ճշգրտության միավոր

Ցանկացած մոտարկման համար առանձնահատուկ նշանակություն ունի դրա ճշգրտության գնահատումը: Նշեք e i-ով x i կետի ֆունկցիոնալ և փորձարարական արժեքների տարբերությունը (շեղումը), այսինքն e i = y i - f (x i):

Ակնհայտ է, որ մոտարկման ճշգրտությունը գնահատելու համար կարող եք օգտագործել շեղումների գումարը, այսինքն, երբ ընտրելով ուղիղ գիծ X-ի կախվածությունը Y-ից մոտավոր ներկայացման համար, նախապատվությունը պետք է տրվի նրան, որն ունի ամենափոքր արժեքը: e i գումարը բոլոր դիտարկվող կետերում: Այնուամենայնիվ, ամեն ինչ այնքան էլ պարզ չէ, քանի որ դրական շեղումների հետ մեկտեղ գործնականում կլինեն նաև բացասական:

Խնդիրը կարող եք լուծել՝ օգտագործելով շեղման մոդուլները կամ դրանց քառակուսիները: Վերջին մեթոդը ամենատարածվածն է: Այն օգտագործվում է բազմաթիվ ոլորտներում, ներառյալ ռեգրեսիոն վերլուծությունը (Excel-ում դրա իրականացումն իրականացվում է երկու ներկառուցված գործառույթների միջոցով) և վաղուց ապացուցված է, որ արդյունավետ է:

Նվազագույն քառակուսի մեթոդ

Excel-ում, ինչպես գիտեք, կա ներկառուցված autosum ֆունկցիա, որը թույլ է տալիս հաշվարկել ընտրված միջակայքում գտնվող բոլոր արժեքների արժեքները: Այսպիսով, ոչինչ չի խանգարի մեզ հաշվարկել արտահայտության արժեքը (e 1 2 + e 2 2 + e 3 2 + ... e n 2):

Մաթեմատիկական նշումով սա նման է.

Քանի որ ի սկզբանե որոշում է կայացվել մոտավորել ուղիղ գծով, մենք ունենք.

Այսպիսով, ուղիղ գիծ գտնելու խնդիրը, որը լավագույնս նկարագրում է X-ի և Y-ի միջև որոշակի կապը, հավասար է երկու փոփոխականների ֆունկցիայի նվազագույնի հաշվարկին.

Սա պահանջում է հավասարեցնել զրոյական մասնակի ածանցյալները նոր a և b փոփոխականների նկատմամբ և լուծել պարզունակ համակարգ, որը բաղկացած է երկու հավասարումներից 2 անհայտ ձևով.

Պարզ փոխակերպումներից հետո, այդ թվում՝ բաժանելով 2-ի և շահարկելով գումարները, մենք ստանում ենք.

Այն լուծելով, օրինակ, Կրամերի մեթոդով, մենք ստանում ենք անշարժ կետ a * և b * որոշակի գործակիցներով: Սա նվազագույնն է, այսինքն՝ կանխատեսելու համար, թե ինչ շրջանառություն կունենա խանութը որոշակի տարածքի համար, հարմար է y = a * x + b * ուղիղ գիծը, որը ռեգրեսիոն մոդել է տվյալ օրինակի համար։ Իհարկե, դա թույլ չի տա ձեզ գտնել ճշգրիտ արդյունքը, բայց դա կօգնի ձեզ պատկերացում կազմել, թե արդյոք որոշակի տարածքի համար ապառիկ խանութ գնելը կվճարի:

Ինչպես իրականացնել նվազագույն քառակուսիների մեթոդը Excel-ում

Excel-ն ունի նվազագույն քառակուսիների արժեքը հաշվարկելու ֆունկցիա։ Այն ունի հետևյալ ձևը՝ TREND (հայտնի Y արժեքներ; հայտնի X արժեքներ; նոր X արժեքներ; հաստատուն): Եկեք կիրառենք Excel-ում OLS-ի հաշվարկման բանաձևը մեր աղյուսակում:

Դա անելու համար այն բջիջում, որտեղ պետք է ցուցադրվի Excel-ում նվազագույն քառակուսիների մեթոդով հաշվարկի արդյունքը, մուտքագրեք «=» նշանը և ընտրեք «TREND» ֆունկցիան: Բացվող պատուհանում լրացրեք համապատասխան դաշտերը՝ ընդգծելով.

  • Y-ի հայտնի արժեքների միջակայք (այս դեպքում շրջանառության տվյալները);
  • միջակայք x 1, …x n, այսինքն՝ մանրածախ տարածքի չափը;
  • և x-ի հայտնի և անհայտ արժեքները, որոնց համար անհրաժեշտ է պարզել շրջանառության չափը (աշխատանքային թերթում դրանց գտնվելու վայրի մասին տեղեկությունների համար տե՛ս ստորև):

Բացի այդ, բանաձևում կա «Const» տրամաբանական փոփոխական: Եթե ​​դրան համապատասխան դաշտում մուտքագրեք 1, ապա դա կնշանակի, որ պետք է կատարվեն հաշվարկներ՝ ենթադրելով, որ b \u003d 0:

Եթե ​​Ձեզ անհրաժեշտ է իմանալ կանխատեսումը մեկից ավելի x արժեքների համար, ապա բանաձևը մուտքագրելուց հետո չպետք է սեղմել «Enter», այլ պետք է մուտքագրել «Shift» + «Control» + «Enter» («Enter») համադրությունը: ) ստեղնաշարի վրա:

Որոշ առանձնահատկություններ

Ռեգրեսիոն վերլուծությունը կարող է հասանելի լինել նույնիսկ կեղծիքների համար: Անհայտ փոփոխականների զանգվածի արժեքը կանխատեսելու Excel բանաձեւը` «TREND»-ը կարող է օգտագործվել նույնիսկ նրանց կողմից, ովքեր երբեք չեն լսել նվազագույն քառակուսիների մեթոդի մասին: Բավական է միայն իմանալ նրա աշխատանքի որոշ առանձնահատկություններ։ Մասնավորապես:

  • Եթե ​​մեկ տողում կամ սյունակում տեղադրեք y փոփոխականի հայտնի արժեքների միջակայքը, ապա x-ի հայտնի արժեքներով յուրաքանչյուր տող (սյունակ) ծրագրի կողմից կընկալվի որպես առանձին փոփոխական:
  • Եթե ​​TREND պատուհանում հայտնի x-ով միջակայքը նշված չէ, ապա Excel-ում ֆունկցիան օգտագործելու դեպքում ծրագիրը այն կդիտարկի որպես ամբողջ թվերից բաղկացած զանգված, որոնց թիվը համապատասխանում է տվյալ արժեքներով տիրույթին: y փոփոխականի.
  • «կանխատեսված» արժեքների զանգված դուրս բերելու համար միտում արտահայտությունը պետք է մուտքագրվի որպես զանգվածի բանաձև:
  • Եթե ​​նոր x արժեքներ չեն նշվում, ապա TREND ֆունկցիան դրանք համարում է հայտնիներին հավասար: Եթե ​​դրանք նշված չեն, ապա զանգված 1 ընդունվում է որպես արգումենտ; 2; 3; 4;…, որը համարժեք է արդեն տրված y պարամետրերով տիրույթին:
  • Նոր x արժեքներ պարունակող միջակայքը պետք է ունենա նույն կամ ավելի տողեր կամ սյունակներ, ինչ տրված y արժեքներով միջակայքը: Այլ կերպ ասած, այն պետք է համաչափ լինի անկախ փոփոխականներին։
  • Հայտնի x արժեքներով զանգվածը կարող է պարունակել բազմաթիվ փոփոխականներ: Այնուամենայնիվ, եթե մենք խոսում ենք միայն մեկի մասին, ապա պահանջվում է, որ x և y-ի տրված արժեքներով միջակայքերը լինեն համաչափ: Մի քանի փոփոխականների դեպքում անհրաժեշտ է, որ տվյալ y արժեքներով միջակայքը տեղավորվի մեկ սյունակում կամ մեկ տողում։

FORECAST ֆունկցիա

Այն իրականացվում է մի քանի գործառույթների միջոցով. Դրանցից մեկը կոչվում է «ԿԱՆԽԱՏԵՍՈՒԹՅՈՒՆ»։ Այն նման է TREND-ին, այսինքն՝ տալիս է նվազագույն քառակուսիների մեթոդով հաշվարկների արդյունքը: Սակայն միայն մեկ X-ի համար, որի համար Y-ի արժեքը անհայտ է:

Այժմ դուք գիտեք Excel-ի բանաձևերը կեղծիքների համար, որոնք թույլ են տալիս կանխատեսել ցուցիչի ապագա արժեքի արժեքը գծային միտումի համաձայն:

Խնդիրը գծային կախվածության գործակիցները գտնելն է, որոնց համար գործում է երկու փոփոխականի ֆունկցիա ԱԵվ բվերցնում է ամենափոքր արժեքը: Այսինքն՝ հաշվի առնելով տվյալները ԱԵվ բԳտնված ուղիղ գծից փորձարարական տվյալների քառակուսի շեղումների գումարը կլինի ամենափոքրը: Սա նվազագույն քառակուսիների մեթոդի ամբողջ իմաստն է:

Այսպիսով, օրինակի լուծումը կրճատվում է երկու փոփոխականների ֆունկցիայի ծայրահեղությունը գտնելով։

Գործակիցներ գտնելու բանաձևերի ստացում.Կազմվում և լուծվում է երկու անհայտ ունեցող երկու հավասարումների համակարգ: Գործառույթների մասնակի ածանցյալների հայտնաբերում ըստ փոփոխականների ԱԵվ բ, այս ածանցյալները հավասարեցնում ենք զրոյի։

Ստացված հավասարումների համակարգը լուծում ենք ցանկացած մեթոդով (օրինակ՝ փոխարինման մեթոդը կամ Կրամերի մեթոդը) և ստանում ենք գործակիցները գտնելու բանաձևեր՝ օգտագործելով նվազագույն քառակուսիների մեթոդը (LSM):

Տվյալներով ԱԵվ բֆունկցիան վերցնում է ամենափոքր արժեքը:

Դա նվազագույն քառակուսիների ամբողջ մեթոդն է: Պարամետրը գտնելու բանաձևը ապարունակում է , , , և պարամետր գումարները n- փորձարարական տվյալների քանակը. Այս գումարների արժեքները խորհուրդ է տրվում հաշվարկել առանձին: Գործակից բհայտնաբերվել է հաշվարկից հետո ա.

Նման բազմանդամների կիրառման հիմնական ոլորտը փորձարարական տվյալների մշակումն է (էմպիրիկ բանաձևերի կառուցումը): Փաստն այն է, որ փորձի օգնությամբ ստացված ֆունկցիայի արժեքներից կառուցված ինտերպոլացիայի բազմանդամը ուժեղ ազդեցություն կունենա «փորձարարական աղմուկի» վրա, ընդ որում, ինտերպոլացիայի ժամանակ ինտերպոլացիոն հանգույցները չեն կարող կրկնվել, այսինքն. դուք չեք կարող օգտագործել կրկնվող փորձերի արդյունքները նույն պայմաններում: Արմատ-միջին քառակուսի բազմանդամը հարթեցնում է աղմուկը և հնարավորություն է տալիս օգտագործել բազմաթիվ փորձերի արդյունքները:

Թվային ինտեգրում և տարբերակում: Օրինակ.

Թվային ինտեգրում- որոշակի ինտեգրալի արժեքի հաշվարկ (որպես կանոն, մոտավոր): Թվային ինտեգրումը հասկացվում է որպես որոշակի ինտեգրալի արժեքը գտնելու թվային մեթոդների մի շարք:

Թվային տարբերակում– Դիսկրետ տրված ֆունկցիայի ածանցյալի արժեքը հաշվարկելու մեթոդների մի շարք:

Ինտեգրում

Խնդրի ձևակերպում.Խնդրի մաթեմատիկական ձևակերպում. անհրաժեշտ է գտնել որոշակի ինտեգրալի արժեքը

որտեղ a, b-ը վերջավոր են, f(x) շարունակական է [а, b]-ում:

Գործնական խնդիրներ լուծելիս հաճախ է պատահում, որ ինտեգրալը անհարմար է կամ անհնար է վերլուծական ընդունել. այն չի կարող արտահայտվել տարրական ֆունկցիաներով, ինտեգրալը կարող է տրվել աղյուսակի տեսքով և այլն: Նման դեպքերում թվային ինտեգրման մեթոդներն են. օգտագործված. Թվային ինտեգրման մեթոդները օգտագործում են կորագիծ տրապիզոնի տարածքի փոխարինումը ավելի պարզ երկրաչափական ձևերի տարածքների վերջավոր գումարով, որը կարելի է ճշգրիտ հաշվարկել: Այս առումով խոսվում է քառակուսային բանաձևերի օգտագործման մասին։

Մեթոդների մեծ մասը օգտագործում է ինտեգրալի ներկայացումը որպես վերջավոր գումար (քառակուսի բանաձև).

Քառակուսային բանաձևերը հիմնված են ինտեգրման ինտերվալի վրա ինտեգրման գրաֆիկը ավելի պարզ ձևի գործառույթներով փոխարինելու գաղափարի վրա, որոնք հեշտությամբ կարող են ինտեգրվել վերլուծական և, հետևաբար, հեշտությամբ հաշվարկվել: Քառակուսային բանաձևերի կառուցման ամենապարզ խնդիրն իրականացվում է բազմանդամ մաթեմատիկական մոդելների համար:

Մեթոդների երեք խումբ կարելի է առանձնացնել.

1. Ինտեգրման հատվածի հավասար ընդմիջումների բաժանման մեթոդ: Ինտերվալների բաժանումը կատարվում է նախօրոք, սովորաբար ինտերվալներն ընտրվում են հավասար (ինտերվալների ծայրերում ֆունկցիայի հաշվարկը հեշտացնելու համար)։ Հաշվիր տարածքները և ամփոփիր դրանք (ուղղանկյունների, տրապիզոիդների, Սիմփսոնի մեթոդները):

2. Ինտեգրման հատվածի բաժանման մեթոդներ հատուկ կետերի միջոցով (Գաուսի մեթոդ):

3. Ինտեգրալների հաշվարկ պատահական թվերով (Մոնտե Կառլոյի մեթոդ):

Ուղղանկյունի մեթոդ.Թող ֆունկցիան (գծագիրը) թվային կերպով ինտեգրվի հատվածի վրա: Հատվածը բաժանում ենք N հավասար ընդմիջումներով։ N կորագծային տրապիզոիդներից յուրաքանչյուրի մակերեսը կարող է փոխարինվել ուղղանկյունի մակերեսով։

Բոլոր ուղղանկյունների լայնությունը նույնն է և հավասար է.

Որպես ուղղանկյունների բարձրության ընտրություն, կարող եք ընտրել ֆունկցիայի արժեքը ձախ եզրագծի վրա: Այս դեպքում առաջին ուղղանկյան բարձրությունը կլինի f(a), երկրորդը՝ f(x 1),…, N-f(N-1):

Եթե ​​որպես ուղղանկյան բարձրության ընտրություն վերցնենք աջ եզրագծի ֆունկցիայի արժեքը, ապա այս դեպքում առաջին ուղղանկյան բարձրությունը կլինի f (x 1), երկրորդը՝ f (x 2), ։ .., N - f (x N):

Ինչպես երևում է, այս դեպքում բանաձևերից մեկը ավելցուկով մոտավորություն է տալիս ինտեգրալին, իսկ երկրորդը՝ թերությամբ։ Կա ևս մեկ միջոց՝ ինտեգրման հատվածի միջնամասում ֆունկցիայի արժեքը օգտագործել մոտարկման համար.

Ուղղանկյունների մեթոդի բացարձակ սխալի գնահատում (միջին)

Ձախ և աջ ուղղանկյունների մեթոդների բացարձակ սխալի գնահատում.

Օրինակ.Հաշվեք ամբողջ ինտերվալի համար և ընդմիջումը բաժանելով չորս հատվածի

Լուծում.Այս ինտեգրալի վերլուծական հաշվարկը տալիս է I=arctg(1)–arctg(0)=0,7853981634: Մեր դեպքում.

1) h = 1; xo = 0; x1 = 1;

2) h = 0,25 (1/4); x0 = 0; x1 = 0,25; x2 = 0,5; x3 = 0,75; x4 = 1;

Մենք հաշվարկում ենք ձախ ուղղանկյունների մեթոդով.

Մենք հաշվարկում ենք ուղղանկյուն ուղղանկյունների մեթոդով.

Հաշվել միջին ուղղանկյունների մեթոդով.

Trapezoidal մեթոդ.Առաջին աստիճանի բազմանդամի օգտագործումը ինտերպոլացիայի համար (ուղիղ գիծ, ​​որը գծված է երկու կետերի միջով) հանգեցնում է trapezoid բանաձևին: Ինտեգրման հատվածի ծայրերը վերցվում են որպես ինտերպոլացիոն հանգույցներ։ Այսպիսով, կորագիծ trapezoid-ը փոխարինվում է սովորական trapezoid-ով, որի մակերեսը կարելի է գտնել որպես հիմքերի գումարի կեսի և բարձրության արտադրյալ:

Բոլոր հանգույցների համար ինտեգրման N հատվածների դեպքում, բացառությամբ հատվածի ծայրահեղ կետերի, ֆունկցիայի արժեքը երկու անգամ կներառվի ընդհանուր գումարի մեջ (քանի որ հարևան trapezoids ունեն մեկ ընդհանուր կողմ)

Trapezoid բանաձևը կարելի է ստանալ՝ վերցնելով հատվածի աջ և ձախ եզրերի երկայնքով ուղղանկյան բանաձևերի գումարի կեսը.

Լուծման կայունության ստուգում:Որպես կանոն, այնքան կարճ է յուրաքանչյուր ինտերվալի երկարությունը, այսինքն. որքան մեծ է այդ ինտերվալների թիվը, այնքան փոքր է տարբերությունը ինտեգրալի մոտավոր և ճշգրիտ արժեքների միջև: Սա ճիշտ է գործառույթների մեծ մասի համար: Trapezoid մեթոդում ϭ ինտեգրալը հաշվարկելիս սխալը մոտավորապես համաչափ է ինտեգրման քայլի քառակուսուն (ϭ ~ h 2): Այսպիսով, a, b սահմաններում որոշակի ֆունկցիայի ինտեգրալը հաշվարկելու համար անհրաժեշտ է. հատվածը բաժանել N 0 միջակայքերի և գտի՛ր տրապիզոնի մակերեսների գումարը: Այնուհետև անհրաժեշտ է ավելացնել N 1 միջակայքերի քանակը, կրկին հաշվարկել տրապիզոնի գումարը և ստացված արժեքը համեմատել նախորդ արդյունքի հետ: Սա պետք է կրկնվի մինչև (N i) մինչև արդյունքի նշված ճշգրտությունը (կոնվերգենցիայի չափանիշ) հասնելը:

Ուղղանկյունի և տրապիզոիդ մեթոդների համար, սովորաբար, կրկնման յուրաքանչյուր քայլում, միջակայքների թիվը մեծանում է 2 գործակցով (N i +1 =2N i):

Կոնվերգենցիայի չափանիշ.

Trapezoid կանոնի հիմնական առավելությունը նրա պարզությունն է: Այնուամենայնիվ, եթե ինտեգրումը պահանջում է բարձր ճշգրտություն, այս մեթոդը կարող է պահանջել չափազանց շատ կրկնություններ:

Trapezoidal մեթոդի բացարձակ սխալգնահատվել է որպես
.

Օրինակ.Հաշվեք մոտավորապես որոշակի ինտեգրալ՝ օգտագործելով trapezoid բանաձևը:

ա) Ինտեգրման հատվածը 3 մասի բաժանելը.
բ) Ինտեգրման հատվածի բաժանումը 5 մասի.

Լուծում:
ա) Ըստ պայմանի, ինտեգրացիոն հատվածը պետք է բաժանվի 3 մասի, այսինքն.
Հաշվեք բաժանման յուրաքանչյուր հատվածի երկարությունը. .

Այսպիսով, trapezoids- ի ընդհանուր բանաձևը կրճատվում է հաճելի չափի.

Վերջապես.

Հիշեցնում եմ, որ ստացված արժեքը տարածքի մոտավոր արժեքն է։

բ) Ինտեգրման հատվածը բաժանում ենք 5 հավասար մասերի, այսինքն՝ . ավելացնելով հատվածների քանակը՝ մենք մեծացնում ենք հաշվարկների ճշգրտությունը։

Եթե ​​, ապա trapezoid բանաձևը ստանում է հետևյալ ձևը.

Եկեք գտնենք բաժանման քայլը.
, այսինքն՝ յուրաքանչյուր միջանկյալ հատվածի երկարությունը 0,6 է։

Առաջադրանքն ավարտելիս հարմար է բոլոր հաշվարկները կազմել հաշվարկային աղյուսակով.

Առաջին տողում գրում ենք «հաշվիչը»

Որպես արդյունք:

Դե պարզաբանում իսկապես կա, այն էլ լուրջ։
Եթե ​​բաժանման 3 հատվածի համար, ապա 5 հատվածի համար: Եթե ​​վերցնեք ավելի շատ հատված => կլինի ավելի ճշգրիտ:

Սիմփսոնի բանաձեւ. Trapezoid բանաձևը տալիս է արդյունք, որը մեծապես կախված է քայլի չափից h, որն ազդում է որոշակի ինտեգրալի հաշվարկի ճշգրտության վրա, հատկապես այն դեպքերում, երբ ֆունկցիան ոչ միապաղաղ է: Կարելի է ենթադրել հաշվարկների ճշգրտության աճ, եթե f(x ֆունկցիայի գրաֆիկի կորագիծ հատվածները փոխարինող ուղիղ գծերի հատվածների փոխարեն օգտագործենք, օրինակ, պարաբոլների բեկորներ, որոնք տրված են գրաֆիկի երեք հարևան կետերով։ . Նմանատիպ երկրաչափական մեկնաբանության հիմքում ընկած է Սիմփսոնի մեթոդը՝ որոշակի ինտեգրալը հաշվարկելու համար։ Ամբողջ ինտեգրման միջակայքը a,b բաժանված է N հատվածների, հատվածի երկարությունը նույնպես հավասար կլինի h=(b-a)/N-ի։

Սիմփսոնի բանաձևը հետևյալն է.

մնացորդային ժամկետ

Սեգմենտների երկարության աճով բանաձևի ճշգրտությունը նվազում է, հետևաբար, ճշգրտությունը մեծացնելու համար օգտագործվում է կոմպոզիտային Simpson բանաձևը: Ամբողջ ինտեգրման միջակայքը բաժանված է զույգ թվով նույնական հատվածների N, հատվածի երկարությունը նույնպես հավասար կլինի h=(b-a)/N-ի։ Սիմփսոնի կոմպոզիտային բանաձևը հետևյալն է.

Բանաձևում փակագծերում արտահայտությունները ինտեգրանի արժեքների գումարներն են, համապատասխանաբար, կենտ և զույգ ներքին հատվածների ծայրերում:

Սիմփսոնի բանաձևի մնացած անդամն արդեն համաչափ է քայլի չորրորդ ուժին.

Օրինակ:Հաշվիր ինտեգրալը՝ օգտագործելով Սիմփսոնի կանոնը։ (Ճշգրիտ լուծում - 0.2)

Գաուսի մեթոդ

Գաուսի քառակուսային բանաձևը. Երկրորդ սորտի քառակուսային բանաձևերի հիմնական սկզբունքը տեսանելի է Նկար 1.12-ից. անհրաժեշտ է կետերը տեղադրել այնպես. X 0 և X 1 հատվածի ներսում [ ա;բ] այնպես, որ «եռանկյունների» մակերեսներն ընդհանուր առմամբ հավասար լինեն «հատվածի» մակերեսներին։ Գաուսի բանաձևն օգտագործելիս սկզբնական հատվածը [ ա;բ]-ը կրճատվում է մինչև [-1;1] միջակայքը՝ փոխելով փոփոխականը Xվրա

0.5∙(բա)∙տ+ 0.5∙(բ + ա).

Հետո , Որտեղ .

Այս փոխարինումը հնարավոր է, եթե աԵվ բվերջավոր են, իսկ ֆունկցիան զ(x) շարունակական է [ ա;բ]. Գաուսի բանաձևը nմիավորներ x i, ես=0,1,..,n-1 հատվածի ներսում [ ա;բ]:

, (1.27)

Որտեղ t iԵվ A iզանազանի համար nտրված են տեղեկատու գրքերում: Օրինակ, երբ n=2 Ա 0 =Ա 1=1; ժամը n=3: տ 0 =t 2" 0.775, տ 1 =0, Ա 0 2" 0.555, Ա 1" 0,889.

Գաուսի քառակուսային բանաձևը

ստացված մեկին հավասար քաշի ֆունկցիայով p(x)= 1 և հանգույցներ x i, որոնք Լեժանդրի բազմանդամների արմատներն են

Հնարավորություններ A iհեշտությամբ հաշվարկվում է բանաձևերով

ես=0,1,2,...n.

Հանգույցների և գործակիցների արժեքները n=2,3,4,5-ի համար տրված են աղյուսակում.

Պատվեր Հանգույցներ Հնարավորություններ
n=2 x 1=0 x 0 =-x2=0.7745966692 Ա 1=8/9 A 0 = A 2=5/9
n=3 x 2 =-x 1=0.3399810436 x 3 =-x0=0.8611363116 A 1 = A 2=0.6521451549 A 0 = A 3=0.6521451549
n=4 x 2 = 0 x 3 = -x 1 = 0.5384693101 x 4 =-x 0 =0.9061798459 Ա 0 =0.568888899 Ա 3 =Ա 1 =0.4786286705 Ա 0 =Ա 4 =0.2869268851
n=5 x 5 = -x 0 =0.9324695142 x 4 = -x 1 =0.6612093865 x 3 = -x 2 =0.2386191861 Ա 5 0 =0.1713244924 Ա 4 1 =0.3607615730 Ա 3 2 =0.4679139346

Օրինակ.Հաշվեք արժեքը՝ օգտագործելով Գաուսի բանաձևը n=2:

Ճշգրիտ արժեք: .

Գաուսի բանաձևով ինտեգրալը հաշվարկելու ալգորիթմը նախատեսում է ոչ թե կրկնապատկել միկրոսեգմենտների քանակը, այլ օրդինատների քանակը 1-ով ավելացնել և համեմատել ինտեգրալի ստացված արժեքները: Գաուսի բանաձեւի առավելությունը բարձր ճշգրտությունն է՝ համեմատաբար փոքր թվով օրդինատներով։ Թերությունները՝ անհարմար է ձեռքով հաշվարկների համար; պետք է պահվի համակարգչի հիշողության մեջ t i, A iզանազանի համար n.

Գաուսի քառակուսային բանաձևի սխալը հատվածի վրա կլինի միևնույն ժամանակ: Մնացած անդամի բանաձևը կլինի այնտեղ, որտեղ α գործակիցը Նաճի հետ արագ նվազում է Ն. Այստեղ

Գաուսի բանաձևերը բարձր ճշգրտություն են ապահովում արդեն փոքր թվով հանգույցների դեպքում (4-ից մինչև 10):Այս դեպքում գործնական հաշվարկներում հանգույցների թիվը տատանվում է մի քանի հարյուրից մինչև մի քանի հազար: Մենք նաև նշում ենք, որ Գաուսի քառակուսիների կշիռները միշտ դրական են, ինչը ապահովում է գումարների հաշվարկման ալգորիթմի կայունությունը.

Նվազագույն քառակուսիների մեթոդը (LSM) թույլ է տալիս գնահատել տարբեր քանակություններ՝ օգտագործելով պատահական սխալներ պարունակող բազմաթիվ չափումների արդյունքները:

Բնութագրական MNC

Այս մեթոդի հիմնական գաղափարն այն է, որ քառակուսի սխալների գումարը դիտարկվում է որպես խնդրի լուծման ճշգրտության չափանիշ, որը ձգտում է նվազագույնի հասցնել: Այս մեթոդը կիրառելիս կարող են կիրառվել ինչպես թվային, այնպես էլ վերլուծական մոտեցումներ:

Մասնավորապես, որպես թվային իրականացում, նվազագույն քառակուսիների մեթոդը ենթադրում է անհայտ պատահական փոփոխականի հնարավորինս շատ չափումներ: Ընդ որում, որքան շատ հաշվարկներ լինեն, այնքան ավելի ճշգրիտ կլինի լուծումը։ Այս հաշվարկների (նախնական տվյալների) վրա ստացվում է առաջարկվող լուծումների մեկ այլ հավաքածու, որից հետո ընտրվում է լավագույնը: Եթե ​​լուծումների բազմությունը պարամետրացված է, ապա նվազագույն քառակուսիների մեթոդը կկրճատվի մինչև պարամետրերի օպտիմալ արժեքը գտնելը:

Որպես նախնական տվյալների (չափումների) և առաջարկվող լուծումների շարքի վրա LSM-ի իրականացման վերլուծական մոտեցում, որոշվում է որոշ (ֆունկցիոնալ), որը կարող է արտահայտվել որպես որոշակի վարկած, որը պետք է հաստատվի բանաձևով: Այս դեպքում նվազագույն քառակուսիների մեթոդը կրճատվում է մինչև սկզբնական տվյալների քառակուսի սխալների բազմության վրա գտնելու այս ֆունկցիոնալության նվազագույնը:

Նկատի ունեցեք, որ ոչ թե իրենք սխալները, այլ սխալների քառակուսիները: Ինչո՞ւ։ Փաստն այն է, որ հաճախ չափումների շեղումները ճշգրիտ արժեքից լինում են և՛ դրական, և՛ բացասական: Միջին գումարը որոշելիս, պարզ գումարումը կարող է հանգեցնել գնահատման որակի վերաբերյալ սխալ եզրակացության, քանի որ դրական և բացասական արժեքների փոխադարձ չեղարկումը կնվազեցնի չափումների հավաքածուի նմուշառման հզորությունը: Եվ, հետևաբար, գնահատման ճշգրտությունը։

Որպեսզի դա տեղի չունենա, քառակուսի շեղումները ամփոփվում են: Նույնիսկ ավելին, չափված արժեքի չափը և վերջնական գնահատումը հավասարեցնելու համար օգտագործվում է քառակուսի սխալների գումարը հանելու համար.

MNC-ների որոշ կիրառություններ

MNC-ը լայնորեն կիրառվում է տարբեր ոլորտներում։ Օրինակ, հավանականության տեսության և մաթեմատիկական վիճակագրության մեջ մեթոդը օգտագործվում է պատահական փոփոխականի այնպիսի բնութագիրը որոշելու համար, ինչպիսին է ստանդարտ շեղումը, որը որոշում է պատահական փոփոխականի արժեքների տիրույթի լայնությունը:

Փորձարարական տվյալների մոտարկումը մեթոդ է, որը հիմնված է փորձարարորեն ստացված տվյալների փոխարինման վրա վերլուծական գործառույթով, որն առավել սերտորեն անցնում կամ համընկնում է հանգուցային կետերում սկզբնական արժեքներին (փորձի կամ փորձի ընթացքում ստացված տվյալները): Ներկայումս վերլուծական ֆունկցիան սահմանելու երկու եղանակ կա.

Կառուցելով n աստիճանի ինտերպոլացիոն բազմանդամ, որն անցնում է անմիջապես բոլոր կետերովտրված տվյալների զանգված: Այս դեպքում մոտավոր ֆունկցիան ներկայացված է հետևյալ կերպ՝ ինտերպոլացիոն բազմանդամ Լագրանժի ձևով կամ ինտերպոլացիոն բազմանդամ՝ Նյուտոնի տեսքով:

Կառուցելով n աստիճանի մոտավոր բազմանդամ, որն անցնում է կետերին մոտտվյալ տվյալների զանգվածից։ Այսպիսով, մոտավոր գործառույթը հարթեցնում է բոլոր պատահական աղմուկը (կամ սխալները), որոնք կարող են առաջանալ փորձի ընթացքում. սխալներ): Այս դեպքում մոտավոր ֆունկցիան որոշվում է նվազագույն քառակուսիների մեթոդով։

Նվազագույն քառակուսի մեթոդ(անգլերեն գրականության մեջ Ordinary Least Squares, OLS) մաթեմատիկական մեթոդ է, որը հիմնված է մոտավոր ֆունկցիայի սահմանման վրա, որը կառուցված է փորձարարական տվյալների տվյալ զանգվածի կետերին ամենամոտ հարևանությամբ: F(x) սկզբնական և մոտավոր ֆունկցիաների մերձեցումը որոշվում է թվային չափմամբ, այն է՝ F(x) մոտավոր կորից փորձարարական տվյալների քառակուսի շեղումների գումարը պետք է լինի ամենափոքրը:

Հարմարեցման կորը կառուցված է նվազագույն քառակուսիների մեթոդով

Օգտագործվում է նվազագույն քառակուսիների մեթոդը.

Լուծել գերորոշված ​​հավասարումների համակարգեր, երբ հավասարումների թիվը գերազանցում է անհայտների թիվը.

Որոնել լուծում սովորական (ոչ գերորոշված) ոչ գծային հավասարումների համակարգերի դեպքում.

Որոշ մոտավոր գործառույթով կետերի արժեքները մոտավորելու համար:

Նվազագույն քառակուսիների մեթոդով մոտավոր ֆունկցիան որոշվում է փորձարարական տվյալների տվյալ զանգվածից հաշվարկված մոտավոր ֆունկցիայի քառակուսի շեղումների նվազագույն գումարի պայմանից: Նվազագույն քառակուսիների մեթոդի այս չափանիշը գրված է հետևյալ արտահայտությամբ.

Հաշվարկված մոտավոր ֆունկցիայի արժեքները հանգույցային կետերում,

Հանգույցային կետերում փորձարարական տվյալների սահմանված զանգված:

Քառակուսի չափանիշն ունի մի շարք «լավ» հատկություններ, ինչպիսիք են տարբերակելիությունը, որը եզակի լուծում է տալիս բազմանդամների մոտավոր գործառույթներով մոտարկման խնդրին։

Կախված խնդրի պայմաններից՝ մոտավոր ֆունկցիան m աստիճանի բազմանդամ է

Մոտավորվող ֆունկցիայի աստիճանը կախված չէ հանգուցային կետերի քանակից, սակայն դրա չափը միշտ պետք է փոքր լինի փորձարարական տվյալների տվյալ զանգվածի չափից (կետերի քանակից):

∙ Եթե մոտավոր ֆունկցիայի աստիճանը m=1 է, ապա աղյուսակի ֆունկցիան մոտավորում ենք ուղիղ գծով (գծային ռեգրեսիա)։

∙ Եթե մոտավոր ֆունկցիայի աստիճանը m=2 է, ապա սեղանի ֆունկցիան մոտարկում ենք քառակուսային պարաբոլով (քառակուսային մոտարկում):

∙ Եթե մոտավոր ֆունկցիայի աստիճանը m=3 է, ապա սեղանի ֆունկցիան մենք մոտարկում ենք խորանարդ պարաբոլով (խորանարդ մոտարկում):

Ընդհանուր դեպքում, երբ պահանջվում է կառուցել m աստիճանի մոտավոր բազմանդամ՝ տրված աղյուսակային արժեքների համար, բոլոր հանգուցային կետերի վրա քառակուսի շեղումների նվազագույն գումարի պայմանը վերագրվում է հետևյալ ձևով.

- m աստիճանի մոտավոր բազմանդամի անհայտ գործակիցներ;

Նշված աղյուսակի արժեքների քանակը:

Ֆունկցիայի նվազագույնի գոյության անհրաժեշտ պայմանը նրա մասնակի ածանցյալների զրոյի հավասարությունն է անհայտ փոփոխականների նկատմամբ։ . Արդյունքում մենք ստանում ենք հետևյալ հավասարումների համակարգը.

Ստացված հավասարումների գծային համակարգը փոխակերպենք՝ բացենք փակագծերը և ազատ անդամները տեղափոխենք արտահայտության աջ կողմ։ Արդյունքում ստացված գծային հանրահաշվական արտահայտությունների համակարգը կգրվի հետևյալ ձևով.

Գծային հանրահաշվական արտահայտությունների այս համակարգը կարող է վերագրվել մատրիցային ձևով.

Արդյունքում ստացվել է m + 1 չափման գծային հավասարումների համակարգ, որը բաղկացած է m + 1 անհայտներից։ Այս համակարգը կարող է լուծվել գծային հանրահաշվական հավասարումների լուծման ցանկացած մեթոդի միջոցով (օրինակ՝ Գաուսի մեթոդը)։ Լուծման արդյունքում կգտնվեն մոտավոր ֆունկցիայի անհայտ պարամետրեր, որոնք ապահովում են սկզբնական տվյալներից մոտավոր ֆունկցիայի քառակուսի շեղումների նվազագույն գումարը, այսինքն. հնարավոր լավագույն քառակուսային մոտարկումը: Պետք է հիշել, որ եթե սկզբնական տվյալների թեկուզ մեկ արժեք փոխվի, ապա բոլոր գործակիցները կփոխեն իրենց արժեքները, քանի որ դրանք ամբողջությամբ որոշվում են սկզբնական տվյալներով։

Սկզբնական տվյալների մոտարկումը գծային կախվածությամբ

(գծային ռեգրեսիա)

Որպես օրինակ՝ դիտարկենք մոտավոր ֆունկցիայի որոշման մեթոդը, որը տրված է որպես գծային հարաբերություն։ Նվազագույն քառակուսիների մեթոդի համաձայն՝ քառակուսի շեղումների նվազագույն գումարի պայմանը գրվում է հետևյալ կերպ.

Աղյուսակի հանգույցային կետերի կոորդինատները;

Մոտավորվող ֆունկցիայի անհայտ գործակիցները, որը տրված է որպես գծային հարաբերություն։

Ֆունկցիայի նվազագույնի գոյության անհրաժեշտ պայմանը նրա մասնակի ածանցյալների զրոյի հավասարությունն է անհայտ փոփոխականների նկատմամբ։ Արդյունքում մենք ստանում ենք հետևյալ հավասարումների համակարգը.

Եկեք վերափոխենք ստացված հավասարումների գծային համակարգը։

Մենք լուծում ենք ստացված գծային հավասարումների համակարգը: Անալիտիկ ձևով մոտավոր ֆունկցիայի գործակիցները որոշվում են հետևյալ կերպ (Կրամերի մեթոդ).

Այս գործակիցները ապահովում են գծային մոտավոր ֆունկցիայի կառուցում՝ համաձայն տրված աղյուսակային արժեքներից (փորձարարական տվյալներ) մոտավոր ֆունկցիայի քառակուսիների գումարը նվազագույնի հասցնելու չափանիշին:

Նվազագույն քառակուսիների մեթոդի իրականացման ալգորիթմ

1. Սկզբնական տվյալներ.

Տրվում է փորձարարական տվյալների զանգված՝ չափումների քանակով Ն

Տրված է մոտավոր բազմանդամի աստիճանը (m):

2. Հաշվարկման ալգորիթմ.

2.1. Չափերով հավասարումների համակարգ կառուցելու համար որոշվում են գործակիցները

Հավասարումների համակարգի գործակիցները (հավասարման ձախ կողմը)

- հավասարումների համակարգի քառակուսի մատրիցայի սյունակի համարի ինդեքսը

Գծային հավասարումների համակարգի ազատ անդամներ (հավասարման աջ կողմ)

- հավասարումների համակարգի քառակուսի մատրիցայի շարքի համարի ցուցիչ

2.2. Չափերով գծային հավասարումների համակարգի ձևավորում.

2.3. Մ աստիճանի մոտավոր բազմանդամի անհայտ գործակիցները որոշելու համար գծային հավասարումների համակարգի լուծում։

2.4 Մոտավոր բազմանդամի քառակուսի շեղումների գումարի որոշում սկզբնական արժեքներից բոլոր հանգուցային կետերում

Քառակուսի շեղումների գումարի գտնված արժեքը հնարավոր նվազագույնն է:

Մոտավորություն այլ գործառույթների հետ

Պետք է նշել, որ սկզբնական տվյալները նվազագույն քառակուսիների մեթոդին համապատասխան մոտավորելիս երբեմն որպես մոտավոր ֆունկցիա օգտագործվում են լոգարիթմական ֆունկցիան, էքսպոնենցիալ ֆունկցիան և հզորության ֆունկցիան։

Գրանցամատյանների մոտարկում

Դիտարկենք այն դեպքը, երբ մոտավոր ֆունկցիան տրվում է ձևի լոգարիթմական ֆունկցիայով.

Նվազագույն քառակուսի մեթոդ

Նվազագույն քառակուսի մեթոդ ( MNK, OLS, սովորական նվազագույն քառակուսիներ) - ռեգրեսիոն վերլուծության հիմնական մեթոդներից մեկը` ռեգրեսիոն մոդելների անհայտ պարամետրերը ընտրանքային տվյալներից գնահատելու համար: Մեթոդը հիմնված է ռեգրեսիայի մնացորդների քառակուսիների գումարը նվազագույնի հասցնելու վրա:

Հարկ է նշել, որ ամենափոքր քառակուսիների մեթոդն ինքնին կարելի է անվանել ցանկացած ոլորտում խնդրի լուծման մեթոդ, եթե լուծումը բաղկացած է կամ բավարարում է անհայտ փոփոխականների որոշ ֆունկցիաների քառակուսիների գումարը նվազագույնի հասցնելու որոշակի չափանիշ: Հետևաբար, նվազագույն քառակուսիների մեթոդը կարող է օգտագործվել նաև այլ (ավելի պարզ) ֆունկցիաներով տրված ֆունկցիայի մոտավոր ներկայացման (մոտարկման) համար, երբ գտնում ենք հավասարումների կամ սահմանափակումների բավարարող մեծությունների մի շարք, որոնց թիվը գերազանցում է այդ մեծությունների թիվը։ և այլն։

ՄՆԿ-ի էությունը

Թող (բացատրված) փոփոխականի միջև հավանական (ռեգեսիոն) կախվածության որոշ (պարամետրիկ) մոդել yև բազմաթիվ գործոններ (բացատրական փոփոխականներ) x

որտեղ է անհայտ մոդելի պարամետրերի վեկտորը

- Պատահական մոդելի սխալ:

Թող լինեն նաև նշված փոփոխականների արժեքների նմուշային դիտարկումներ: Թող լինի դիտարկման թիվը (): Այնուհետև --րդ դիտարկման փոփոխականների արժեքներն են: Այնուհետև b պարամետրերի տրված արժեքների համար հնարավոր է հաշվարկել y բացատրված փոփոխականի տեսական (մոդելային) արժեքները.

Մնացորդների արժեքը կախված է պարամետրերի արժեքներից b.

LSM-ի էությունը (սովորական, դասական) այնպիսի պարամետրեր գտնելն է b, որոնց համար մնացորդների քառակուսիների գումարը (eng. Քառակուսիների մնացորդային գումարը) կլինի նվազագույն.

Ընդհանուր դեպքում այս խնդիրը կարող է լուծվել օպտիմալացման (մինիմիզացման) թվային մեթոդներով։ Այս դեպքում խոսվում է ոչ գծային նվազագույն քառակուսիներ(NLS կամ NLLS - անգլերեն. Ոչ գծային նվազագույն քառակուսիներ) Շատ դեպքերում կարելի է վերլուծական լուծում ստանալ։ Մինիմալացման խնդիրը լուծելու համար անհրաժեշտ է գտնել ֆունկցիայի անշարժ կետերը՝ այն տարբերակելով b անհայտ պարամետրերի նկատմամբ, ածանցյալները հավասարեցնելով զրոյի և լուծելով ստացված հավասարումների համակարգը.

Եթե ​​մոդելի պատահական սխալները սովորաբար բաշխված են, ունեն նույն շեղումը և փոխկապակցված չեն միմյանց հետ, նվազագույն քառակուսիների պարամետրի գնահատումները նույնն են, ինչ առավելագույն հավանականության մեթոդի (MLM) գնահատումները:

LSM գծային մոդելի դեպքում

Թող ռեգրեսիայի կախվածությունը լինի գծային.

Թող y- բացատրված փոփոխականի դիտարկումների սյունակային վեկտոր և - գործոնների դիտարկումների մատրիցա (մատրիցի տողեր՝ տվյալ դիտարկման գործոնի արժեքների վեկտորներ, ըստ սյունակների՝ տվյալ գործոնի արժեքների վեկտոր բոլոր դիտարկումներում) . Գծային մոդելի մատրիցային ներկայացումն ունի հետևյալ ձևը.

Այնուհետև բացատրված փոփոխականի գնահատումների վեկտորը և ռեգրեսիայի մնացորդների վեկտորը հավասար կլինեն.

համապատասխանաբար, ռեգրեսիայի մնացորդների քառակուսիների գումարը հավասար կլինի

Տարբերակելով այս ֆունկցիան պարամետրի վեկտորի նկատմամբ և հավասարեցնելով ածանցյալները զրոյի, մենք ստանում ենք հավասարումների համակարգ (մատրիցի տեսքով).

.

Հավասարումների այս համակարգի լուծումը տալիս է գծային մոդելի նվազագույն քառակուսիների գնահատումների ընդհանուր բանաձևը.

Վերլուծական նպատակներով այս բանաձևի վերջին ներկայացումը օգտակար է դառնում: Եթե ​​տվյալները ռեգրեսիայի մոդելում կենտրոնացած, ապա այս ներկայացման մեջ առաջին մատրիցն ունի գործակիցների օրինակելի կովարիանս մատրիցի նշանակությունը, իսկ երկրորդը կախված փոփոխականով գործոնների կովարիանսների վեկտորն է։ Եթե, ի լրումն, տվյալները նույնպես նորմալացված SKO-ում (այսինքն, ի վերջո ստանդարտացված), ապա առաջին մատրիցն ունի գործոնների ընտրանքային հարաբերակցության մատրիցայի նշանակությունը, երկրորդ վեկտորը՝ կախված փոփոխականի հետ գործոնների ընտրանքային հարաբերակցության վեկտորը։

LLS գնահատումների կարևոր հատկությունը մոդելների համար հաստատունով- կառուցված ռեգրեսիայի գիծն անցնում է նմուշի տվյալների ծանրության կենտրոնով, այսինքն՝ հավասարությունը կատարվում է.

Մասնավորապես, ծայրահեղ դեպքում, երբ միակ ռեգրեսորը հաստատուն է, մենք գտնում ենք, որ մեկ պարամետրի OLS գնահատականը (հաստատուն ինքնին) հավասար է բացատրվող փոփոխականի միջին արժեքին: Այսինքն՝ թվաբանական միջինը, որը հայտնի է մեծ թվերի օրենքներից իր լավ հատկություններով, նաև նվազագույն քառակուսիների գնահատական ​​է. այն բավարարում է դրանից քառակուսի շեղումների նվազագույն գումարի չափանիշը:

Օրինակ՝ պարզ (զույգ) ռեգրեսիա

Զուգակցված գծային ռեգրեսիայի դեպքում հաշվարկման բանաձևերը պարզեցված են (կարող եք անել առանց մատրիցային հանրահաշվի).

OLS գնահատումների հատկությունները

Նախևառաջ, մենք նշում ենք, որ գծային մոդելների համար նվազագույն քառակուսիների գնահատումները գծային գնահատումներ են, ինչպես հետևում է վերը նշված բանաձևից: OLS-ի անաչառ գնահատումների համար անհրաժեշտ և բավարար է կատարել ռեգրեսիոն վերլուծության ամենակարևոր պայմանը. գործոններով պայմանավորված պատահական սխալի մաթեմատիկական ակնկալիքը պետք է հավասար լինի զրոյի: Այս պայմանը բավարարվում է, մասնավորապես, եթե

  1. պատահական սխալների մաթեմատիկական ակնկալիքը զրո է, և
  2. գործոնները և պատահական սխալները անկախ պատահական փոփոխականներ են:

Երկրորդ պայմանը` էկզոգեն գործոնների վիճակը, հիմնարար է: Եթե ​​այս հատկությունը բավարարված չէ, ապա կարող ենք ենթադրել, որ գրեթե ցանկացած գնահատական ​​կլինի ծայրահեղ անբավարար. դրանք նույնիսկ չեն լինի հետևողական (այսինքն, նույնիսկ շատ մեծ քանակությամբ տվյալներ թույլ չեն տալիս այս դեպքում որակական գնահատականներ ստանալ): Դասական դեպքում ավելի ուժեղ ենթադրություն է արվում գործոնների դետերմինիզմի մասին, ի տարբերություն պատահական սխալի, ինչը ավտոմատ կերպով նշանակում է, որ էկզոգեն պայմանը բավարարված է։ Ընդհանուր դեպքում, գնահատումների հետևողականության համար բավարար է էկզոգենության պայմանի կատարումը մատրիցի կոնվերգենցիայի հետ մեկտեղ ոչ եզակի մատրիցին՝ ընտրանքի չափի աճով մինչև անսահմանություն:

Որպեսզի, բացի հետևողականությունից և անաչառությունից, (սովորական) նվազագույն քառակուսիների գնահատումները նույնպես արդյունավետ լինեն (լավագույնը գծային անկողմնակալ գնահատումների դասում), անհրաժեշտ է կատարել պատահական սխալի լրացուցիչ հատկություններ.

Այս ենթադրությունները կարող են ձևակերպվել պատահական սխալի վեկտորի կովարիանսային մատրիցայի համար

Գծային մոդելը, որը բավարարում է այս պայմանները, կոչվում է դասական. Դասական գծային ռեգրեսիայի OLS գնահատականները անաչառ, հետևողական և ամենաարդյունավետ գնահատականներն են բոլոր գծային անկողմնակալ գնահատումների դասում (անգլերեն գրականության մեջ հապավումը երբեմն օգտագործվում է. Կապույտ (Լավագույն գծային անհիմն գնահատիչ) լավագույն գծային անաչառ գնահատականն է. հայրենական գրականության մեջ ավելի հաճախ նշվում է Գաուս-Մարկովի թեորեմը): Քանի որ հեշտ է ցույց տալ, գործակիցների գնահատման վեկտորի կովարիանսի մատրիցը հավասար կլինի.

Ընդհանրացված նվազագույն քառակուսիներ

Նվազագույն քառակուսիների մեթոդը թույլ է տալիս լայն ընդհանրացում: Մնացորդների քառակուսիների գումարը նվազագույնի հասցնելու փոխարեն, կարելի է նվազագույնի հասցնել մնացորդային վեկտորի որոշ դրական հստակ քառակուսի ձև, որտեղ կա որոշ սիմետրիկ դրական որոշակի քաշի մատրիցա: Սովորական նվազագույն քառակուսիները այս մոտեցման հատուկ դեպք է, երբ քաշի մատրիցը համաչափ է նույնականացման մատրիցին: Ինչպես հայտնի է սիմետրիկ մատրիցների (կամ օպերատորների) տեսությունից, այդպիսի մատրիցների համար կա տարրալուծում։ Հետևաբար, նշված ֆունկցիոնալը կարող է ներկայացվել հետևյալ կերպ, այսինքն՝ այս ֆունկցիոնալը կարող է ներկայացվել որպես որոշ փոխակերպված «մնացորդների» քառակուսիների գումար։ Այսպիսով, մենք կարող ենք տարբերակել նվազագույն քառակուսիների մեթոդների դաս՝ LS-մեթոդներ (Նվազագույն քառակուսիներ):

Ապացուցված է (Այթքենի թեորեմ), որ ընդհանրացված գծային ռեգրեսիոն մոդելի համար (որում պատահական սխալների կովարիանսային մատրիցայի վրա սահմանափակումներ չեն դրվում), ամենաարդյունավետը (գծային անկողմնակալ գնահատումների դասում) գնահատումներ են այսպես կոչված. ընդհանրացված OLS (OMNK, GLS - Ընդհանրացված նվազագույն քառակուսիներ)- LS-մեթոդ քաշային մատրիցով, որը հավասար է պատահական սխալների հակադարձ կովարիանսային մատրիցին.

Կարելի է ցույց տալ, որ գծային մոդելի պարամետրերի GLS-գնահատումների բանաձևն ունի ձև.

Այս գնահատումների կովարիանսային մատրիցը, համապատասխանաբար, հավասար կլինի

Փաստորեն, OLS-ի էությունը կայանում է սկզբնական տվյալների որոշակի (գծային) փոխակերպման (P) և փոխակերպված տվյալների նկատմամբ սովորական նվազագույն քառակուսիների կիրառման մեջ: Այս փոխակերպման նպատակն այն է, որ փոխակերպված տվյալների համար պատահական սխալներն արդեն բավարարում են դասական ենթադրությունները։

Քաշված նվազագույն քառակուսիները

Շեղանկյուն քաշային մատրիցայի դեպքում (և հետևաբար՝ պատահական սխալների կովարիանսի մատրիցը), մենք ունենք այսպես կոչված կշռված նվազագույն քառակուսիներ (WLS - Weighted Least Squares): Այս դեպքում մոդելի մնացորդների քառակուսիների կշռված գումարը նվազագույնի է հասցվում, այսինքն՝ յուրաքանչյուր դիտարկում ստանում է «կշիռ», որը հակադարձ համեմատական ​​է այս դիտարկման պատահական սխալի շեղմանը. Փաստորեն, տվյալները փոխակերպվում են դիտարկումների կշռման միջոցով (բաժանելով պատահական սխալների ենթադրյալ ստանդարտ շեղմանը համամասնորեն), և կշռված տվյալների վրա կիրառվում են նորմալ նվազագույն քառակուսիներ:

LSM-ի գործնականում կիրառման մի քանի հատուկ դեպքեր

Գծային մոտարկում

Դիտարկենք այն դեպքը, երբ որոշակի սկալային մեծության կախվածությունը որոշակի սկալյար մեծությունից ուսումնասիրելու արդյունքում (սա կարող է լինել, օրինակ, լարման կախվածությունը ընթացիկ ուժից. ), չափվել են այդ մեծությունները, ինչի արդյունքում արժեքներն ու դրանց համապատասխան արժեքները։ Չափման տվյալները պետք է գրանցվեն աղյուսակում:

Աղյուսակ. Չափման արդյունքները.

Չափման թիվ
1
2
3
4
5
6

Հարցը հնչում է այսպես. գործակիցի ո՞ր արժեքը կարելի է ընտրել կախվածությունը լավագույնս նկարագրելու համար: Ըստ նվազագույն քառակուսիների, այս արժեքը պետք է լինի այնպիսին, որ արժեքների քառակուսի շեղումների գումարը արժեքներից

նվազագույն էր

Քառակուսի շեղումների գումարն ունի մեկ ծայրահեղություն՝ նվազագույնը, որը թույլ է տալիս օգտագործել այս բանաձևը։ Եկեք այս բանաձևից գտնենք գործակցի արժեքը. Դա անելու համար մենք նրա ձախ կողմը վերափոխում ենք հետևյալ կերպ.

Վերջին բանաձևը թույլ է տալիս գտնել գործակիցի արժեքը, որը պահանջվում էր խնդրի մեջ:

Պատմություն

Մինչև XIX դարի սկիզբը։ գիտնականները չունեին որոշակի կանոններ հավասարումների համակարգ լուծելու համար, որտեղ անհայտների թիվը հավասարումների քանակից փոքր է. Մինչ այդ օգտագործվում էին որոշակի մեթոդներ՝ կախված հավասարումների տեսակից և հաշվիչների հնարամտությունից, և, հետևաբար, տարբեր հաշվիչներ, սկսած նույն դիտողական տվյալներից, եկան տարբեր եզրակացությունների։ Գաուսը (1795) վերագրվում է մեթոդի առաջին կիրառմանը, իսկ Լեժանդրը (1805) ինքնուրույն հայտնաբերել և հրատարակել է այն իր ժամանակակից անունով (fr. Methode des moindres quarres ) . Լապլասը մեթոդը կապում է հավանականության տեսության հետ, իսկ ամերիկացի մաթեմատիկոս Ադրեյնը (1808) դիտարկել է դրա հավանականական կիրառությունները։ Մեթոդը լայն տարածում ունի և բարելավվել է Էնկեի, Բեսելի, Հանսենի և այլոց հետագա հետազոտություններով։

MNC-ների այլընտրանքային օգտագործում

Նվազագույն քառակուսիների մեթոդի գաղափարը կարող է օգտագործվել նաև այլ դեպքերում, որոնք ուղղակիորեն կապված չեն ռեգրեսիոն վերլուծության հետ: Փաստն այն է, որ քառակուսիների գումարը վեկտորների մոտիկության ամենատարածված չափորոշիչներից մեկն է (էվկլիդյան մետրիկ վերջավոր չափերի տարածություններում):

Մեկ կիրառություն է «լուծել» գծային հավասարումների համակարգերը, որոնցում հավասարումների թիվը մեծ է փոփոխականների թվից։

որտեղ մատրիցը քառակուսի չէ, այլ ուղղանկյուն:

Հավասարումների նման համակարգը, ընդհանուր դեպքում, լուծում չունի (եթե աստիճանը իրականում մեծ է փոփոխականների քանակից)։ Հետևաբար, այս համակարգը կարող է «լուծվել» միայն այնպիսի վեկտորի ընտրության իմաստով, որպեսզի նվազագույնի հասցվի վեկտորների միջև «հեռավորությունը» և . Դա անելու համար կարող եք կիրառել համակարգի հավասարումների ձախ և աջ մասերի քառակուսի տարբերությունների գումարը նվազագույնի հասցնելու չափանիշը, այսինքն՝ . Հեշտ է ցույց տալ, որ նվազագույնի հասցնելու այս խնդրի լուծումը հանգեցնում է հետևյալ հավասարումների համակարգի լուծմանը